ES2820449T3 - Cámara inteligente para compartir fotografías automáticamente - Google Patents

Cámara inteligente para compartir fotografías automáticamente Download PDF

Info

Publication number
ES2820449T3
ES2820449T3 ES12754119T ES12754119T ES2820449T3 ES 2820449 T3 ES2820449 T3 ES 2820449T3 ES 12754119 T ES12754119 T ES 12754119T ES 12754119 T ES12754119 T ES 12754119T ES 2820449 T3 ES2820449 T3 ES 2820449T3
Authority
ES
Spain
Prior art keywords
image
final image
user
person
shared attributes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12754119T
Other languages
English (en)
Inventor
Charles Sweet
Joel Bernarte
Virginia Keating
Serafin Spindola
Charles Bergan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2820449T3 publication Critical patent/ES2820449T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)

Abstract

Un procedimiento para compartir una imagen final utilizando un dispositivo, en el que el procedimiento es realizado por un servidor y comprende: recibir (1202) datos de imagen del dispositivo en el servidor utilizando recursos de red, en el que los datos de imagen son una representación de la imagen final con menor resolución y tamaño de archivo en comparación con la imagen final correspondiente para compartir; acceder (1204) a los datos de la imagen; acceder (1206) a la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de la imagen, en el que el proceso de identificación se inicia antes de la captura real de la imagen final por el dispositivo; acceder a (1208) atributos compartidos asociados con el al menos un objeto en la imagen final basándose en la identificación del objeto en la imagen final, en el que los atributos compartidos indican con quién se debe compartir la imagen final; asociar automáticamente (1210) la imagen final con atributos compartidos basándose en la identificación de al menos un objeto; generar (1212) información para compartir la imagen final basándose en los atributos compartidos; y enviar (1214) información para compartir la imagen final basándose en los atributos compartidos del servidor.

Description

DESCRIPCIÓN
Cámara inteligente para compartir fotografías automáticamente
ANTECEDENTES
[0001] Aspectos de la divulgación se refieren a tecnologías informáticas. En particular, aspectos de la divulgación se refieren a tecnologías de dispositivos informáticos móviles, tales como sistemas, procedimientos, aparatos y medios legibles por ordenador para adquirir y compartir imágenes.
[0002] En el pasado, tomar fotografías siempre ha sido un evento ceremonial reservado para ocasiones especiales como fiestas de cumpleaños, reuniones familiares y viajes a destinos exóticos o como un pasatiempo. Sin embargo, las cámaras se están volviendo ubicuas con su integración en los teléfonos inteligentes y las personas están tomando muchas más fotografías de lo que solían hacer. Tomar y compartir fotografías se ha convertido en la nueva norma del tejido social. Las generaciones más jóvenes quieren tomar y compartir fotografías instantáneamente, sobre la marcha.
[0003] Capturar, administrar y cargar fotografías a la red social sigue siendo una tarea engorrosa. Después de tomar una fotografía, en muchos casos, el usuario habitualmente descarga las fotografías a un ordenador y las clasifica, guardando las mejores fotografías y eliminando el resto. Una vez que las fotografías se ordenan y editan, el usuario carga las fotografías en una red social. El usuario carga la fotografía en una red social o círculo particular, dependiendo del tema de la fotografía. Por ejemplo, un usuario puede cargar fotografías de colegas en la oficina en una red social profesional como LinkedIn®, mientras que el usuario puede cargar fotografías de la reunión de un amigo en una red social como Facebook® o un círculo dedicado a amigos en una red social como Google Plus®. En el documento US2011/0064281 A1 se conoce un procedimiento para compartir automáticamente una fotografía basada en una imagen facial reconocida.
[0004] En el modelo de uso actual, hay demasiados pasos involucrados para el usuario antes de que el usuario pueda cargar y compartir fotografías decentes en una red social. El proceso es lento y engorroso.
[0005] Los modos de realización de la invención ayudan a resolver este y otros problemas. La presente invención proporciona una solución de acuerdo con la materia objeto de las reivindicaciones independientes. La siguiente descripción aclara a título de ejemplo varios aspectos no limitativos para facilitar la comprensión de la presente invención.
[0006] Se proporcionan técnicas para tomar y compartir fotografías de objetos de interés en un evento u ocasión. Los modos de realización de la invención divulgan procedimientos, aparatos, sistemas y medios legibles por ordenador para tomar y compartir fotografías de objetos de interés en un evento u ocasión. Un dispositivo que implementa modos de realización de la invención puede permitir a un usuario seleccionar objetos de interés desde una vista mostrada por una unidad de visualización acoplada al dispositivo. El dispositivo también puede tener objetos preprogramados, incluidos los objetos que el dispositivo detecta. Además, el dispositivo puede detectar personas que utilizan las redes sociales de los usuarios al recuperar imágenes de redes sociales como Facebook® y LinkedIn®.
[0007] Un procedimiento de ejemplo para compartir fotografías usando un dispositivo comprende acceder a los datos de imagen para una imagen, acceder a la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de imagen para la imagen, acceder a atributos compartidos asociados con el al menos un objeto en la imagen, automáticamente asociar la imagen con atributos compartidos y generar información para compartir la imagen basada en los atributos compartidos.
[0008] En un ejemplo, identificar el al menos un objeto comprende generar una primera representación de al menos una parte de la imagen asociada con el al menos un objeto usando algunos o todos los datos de la imagen, y comparar la primera representación con una segunda representación de un objeto de referencia almacenado en una base de datos. En un aspecto, la base de datos es una de una base de datos interna almacenada en el dispositivo utilizado para compartir fotografías o una base de datos externa que pertenece a un recurso de red.
[0009] En otro ejemplo, identificar el al menos un objeto comprende acceder al menos a una característica asociada con el al menos un objeto, y determinar la identificación del al menos un objeto basándose en la al menos una característica asociada con el al menos un objeto. En un aspecto, el objeto es una persona y el reconocimiento facial puede usarse para identificar la parte de la imagen asociada con el al menos un objeto que comprende una cara de la persona.
[0010] En un aspecto, la identificación de un objeto se realiza usando una representación de baja resolución del objeto. El procedimiento también puede comprender asociar la imagen con una red social o una agrupación de objetos dentro de una red social basándose en los atributos compartidos de la imagen. Los atributos compartidos pueden obtenerse utilizando uno o más de una ubicación en la que se capturó la imagen, un momento en el que se capturó la imagen, un historial de asociación de objetos similares para el al menos un objeto identificado, una característica de al menos un objeto y reconocimiento facial de personas en la imagen, una relación del usuario del dispositivo con una agrupación de objetos dentro de una red social y una confianza digital entre el usuario del dispositivo y la agrupación de objetos dentro de la red social.
[0011] En algunos modos de realización, el objeto identificado es una persona. A la persona se le pueden otorgar derechos de acceso a la primera persona identificada en la imagen utilizando recursos de la red. El procedimiento puede comprender además otorgar automáticamente a una segunda persona derechos de acceso a la imagen usando los recursos de red basados en una confianza transitiva establecida entre la primera persona y la segunda persona usando una relación de primera confianza entre la primera persona y un usuario del dispositivo y una segunda relación de confianza entre la segunda persona y el usuario del dispositivo. En otras implementaciones, el procedimiento puede otorgar automáticamente a un grupo de personas derechos de acceso a la imagen utilizando los recursos de red basados en una asociación de la primera persona con el grupo de personas.
[0012] El procedimiento realizado por ejemplos para compartir fotografías puede incluir además recibir los datos de imagen para la imagen desde el dispositivo en un servidor utilizando recursos de red, y enviar información para compartir la imagen basándose en los atributos compartidos desde el servidor.
[0013] En un ejemplo, el procedimiento para compartir fotografías también puede incluir proporcionar a un usuario una interfaz de usuario configurada para resaltar al menos un objeto visualizado en una unidad de visualización del dispositivo. El procedimiento puede comprender además recibir entradas usando la interfaz de usuario para realizar una o más de seleccionar, rechazar o modificar el objeto resaltado. El procedimiento puede etiquetar el objeto resaltado con información identificable sobre al menos un objeto. Otro aspecto puede incluir proporcionar al usuario una lista que comprende al menos una asociación basada en los atributos compartidos. Otro aspecto puede incluir proporcionar al usuario la interfaz de usuario para compartir la imagen asociando la imagen con otras agrupaciones de objetos basándose en los atributos compartidos de la imagen utilizando recursos de red.
[0014] Un dispositivo de ejemplo que implementa el sistema puede incluir un procesador; una unidad sensorial de entrada acoplada al procesador; una unidad de visualización acoplada al procesador; y un medio de almacenamiento legible por ordenador no transitorio acoplado al procesador, en el que el medio de almacenamiento legible por ordenador no transitorio puede comprender código ejecutable por el procesador, que comprende acceder a la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de imagen para la imagen, acceder a los atributos compartidos asociados con el al menos un objeto en la imagen, asociar automáticamente la imagen con los atributos compartidos y generar información para compartir la imagen basándose en los atributos compartidos.
[0015] En un ejemplo, el dispositivo identifica el al menos un objeto generando una primera representación de al menos una parte de la imagen asociada con el al menos un objeto usando algunos o todos los datos de la imagen, y comparando la primera representación con una segunda representación de un objeto de referencia almacenado en una base de datos. En un aspecto, la base de datos puede ser una de una base de datos interna almacenada en el dispositivo utilizado para compartir fotografías o una base de datos externa que pertenece a un recurso de red.
[0016] En otro ejemplo, el dispositivo identifica el al menos un objeto accediendo al menos a una característica asociada con el al menos un objeto, y determinando la identificación del al menos un objeto basándose en la al menos una característica asociada con el al menos un objeto. En un aspecto, el objeto es una persona y el reconocimiento facial puede usarse para identificar la parte de la imagen asociada con el al menos un objeto que comprende una cara de la persona.
[0017] En un aspecto, la identificación de un objeto se realiza usando una representación de baja resolución del objeto. El dispositivo también puede comprender asociar la imagen con una red social o una agrupación de objetos dentro de una red social basándose en los atributos compartidos de la imagen. Los atributos compartidos pueden obtenerse utilizando uno o más de una ubicación en la que se capturó la imagen, un momento en el que se capturó la imagen, un historial de asociación de objetos similares para el al menos un objeto identificado, una característica de al menos un objeto y reconocimiento facial de personas en la imagen, una relación del usuario del dispositivo con una agrupación de objetos dentro de una red social y una confianza digital entre el usuario del dispositivo y la agrupación de objetos dentro de la red social.
[0018] En algunos ejemplos, el objeto identificado es una (primera) persona. A la persona se le pueden otorgar derechos de acceso a la primera persona identificada en la imagen utilizando recursos de la red. El dispositivo puede otorgar automáticamente derechos de acceso a una segunda persona a la imagen usando los recursos de red basados en una confianza transitiva establecida entre la primera persona y la segunda persona usando una primera relación de confianza entre la primera persona y un usuario del dispositivo y un segundo relación de confianza entre la segunda persona y el usuario del dispositivo. En otras implementaciones, el dispositivo puede otorgar automáticamente a un grupo de personas derechos de acceso a la imagen utilizando los recursos de red basados en una asociación de la primera persona con el grupo de personas.
[0019] El dispositivo puede incluir además componentes para recibir los datos de imagen para la imagen desde el dispositivo en un servidor utilizando recursos de red, y enviar información para compartir la imagen basándose en los atributos compartidos del servidor.
[0020] En un ejemplo, el dispositivo para compartir fotografías también puede incluir proporcionar a un usuario una interfaz de usuario configurada para resaltar al menos un objeto visualizado en una unidad de visualización del dispositivo. El dispositivo puede comprender además recibir entrada usando la interfaz de usuario para realizar una o más de seleccionar, rechazar o modificar el objeto resaltado. El dispositivo puede etiquetar el objeto resaltado con información identificable sobre al menos un objeto. Otro aspecto puede incluir proporcionar al usuario una lista que comprende al menos una asociación basada en los atributos compartidos. Otro aspecto puede incluir proporcionar al usuario la interfaz de usuario para compartir la imagen asociando la imagen con otras agrupaciones de objetos basándose en los atributos compartidos de la imagen utilizando recursos de red.
[0021] Un ejemplo de medio de almacenamiento legible por ordenador no transitorio acoplado a un procesador, en el que el medio de almacenamiento legible por ordenador no transitorio comprende un programa informático ejecutable por el procesador, que accede a unos datos de imagen, accede a la identificación de al menos un objeto obtenido por procesamiento de los datos de imagen para la imagen, accediendo a los atributos compartidos asociados con el al menos un objeto en la imagen, asociando automáticamente la imagen con los atributos compartidos y generando información para compartir la imagen basada en los atributos compartidos.
[0022] Un aparato de ejemplo para compartir imágenes comprende un medio para acceder a unos datos de imagen para una imagen, un medio para acceder a la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de imagen para la imagen, un medio para acceder a los atributos compartidos asociados con el al menos uno objeto en la imagen, medios para asociar automáticamente la imagen con atributos compartidos, y medios para generar información para compartir la imagen basada en los atributos compartidos.
[0023] Con lo anterior se han esbozado de manera bastante genérica los rasgos característicos y ventajas técnicas de ejemplos de acuerdo con la divulgación para permitir una mejor comprensión de la siguiente descripción detallada. A continuación, en el presente documento se describirán rasgos característicos y ventajas adicionales. La concepción y los ejemplos específicos divulgados se pueden utilizar fácilmente como base para modificar o diseñar otras estructuras para llevar a cabo los mismos propósitos de la presente divulgación. Dichas construcciones equivalentes no se apartan del espíritu y el alcance de las reivindicaciones adjuntas. Los rasgos que se creen característicos de los conceptos divulgados en el presente documento, tanto en lo que respecta a su organización como al procedimiento de funcionamiento, junto con las ventajas asociadas, se comprenderán mejor a partir de la siguiente descripción cuando se consideren en relación con las figuras adjuntas. Cada una de las figuras se proporciona solo con fines de ilustración y descripción, y no como una definición de los límites de las reivindicaciones.
BREVE DESCRIPCIÓN DE LAS FIGURAS
[0024] La siguiente descripción se proporciona con referencia a las figuras, donde los mismos números de referencia se utilizan para referirse a elementos iguales en toda su extensión. Si bien varios detalles de una o más técnicas se describen en el presente documento, también son posibles otras técnicas. En algunos casos, las estructuras y dispositivos bien conocidos se muestran en forma de diagrama de bloques para facilitar la descripción de varias técnicas.
[0025] Una comprensión adicional de la naturaleza y las ventajas de los ejemplos proporcionados por la divulgación se puede realizar por referencia a las partes restantes de la memoria descriptiva y las figuras, en el que los mismos números de referencia se usan en toda la extensión de los diversas figuras para referirse a componentes similares. En algunos casos, una subetiqueta está asociada con un número de referencia para indicar uno de los múltiples componentes similares.
La FIG. 1 ilustra un dispositivo a modo de ejemplo en el que se pueden implementar uno o más aspectos de la divulgación.
La FIG. 2A y la FIG. 2B ilustran un modo de realización a modo de ejemplo ejecutado por componentes del dispositivo para rastrear a una persona durante un período de tiempo en un evento.
La FIG. 3 es un diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 300 para rastrear un objeto y adquirir datos de imagen desde el campo de visión.
La FIG. 4 ilustra una topología simplificada entre un dispositivo y una red.
La FIG. 5A y la FIG. 5B ilustran un modo de realización a modo de ejemplo de la interfaz de usuario.
La FIG. 6 es un diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 600 para proporcionar una interfaz de usuario para el usuario en el dispositivo.
La FIG. 7 es un diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 700 para adquirir el contenido deseado de una imagen de alta resolución.
La FIG. 8 es un diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 800 para retener imágenes deseables.
La FIG. 9 es un diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 900 para cambiar de baja resolución a alta resolución para adquirir imágenes.
La FIG. 10 ilustra un modo de realización a modo de ejemplo ejecutado por componentes del dispositivo para compartir imágenes.
La FIG. 11 es un diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 1100 para compartir imágenes a través de una red.
La FIG. 12 es otro diagrama de flujo simplificado, que ilustra un procedimiento a modo de ejemplo 1200 para compartir imágenes a través de una red.
DESCRIPCIÓN DETALLADA
[0026] A continuación se describirán varios modos de realización ilustrativos con respecto a los dibujos adjuntos, que forman parte de los mismos. Aunque a continuación se describen modos de realización particulares, en las que se pueden implementar uno o más aspectos de la divulgación, se pueden usar otros modos de realización y se pueden realizar diversas modificaciones sin apartarse del alcance de la divulgación o del espíritu de las reivindicaciones adjuntas.
[0027] Las técnicas actuales se relacionan con la adquisición de imágenes y el intercambio de las imágenes adquiridas. Dado que las cámaras están disponibles en más y más dispositivos y las imágenes se comparten en varios tejidos sociales diferentes, el proceso para compartir imágenes es relativamente igual. Típicamente, un usuario adquiere una imagen y selecciona manualmente las redes sociales y el contexto para compartir las imágenes. El proceso de adquisición de imágenes, gestión, organización, edición y carga de fotografías en la red social es una tarea engorrosa. Después de tomar una fotografía, el usuario tiene el trabajo de descargar las fotografías a un ordenador, clasificarlas, guardar las mejores fotografías y cargarlas a una red social. El usuario carga la fotografía en una red social o círculo particular, dependiendo del tema de la fotografía. Por ejemplo, un usuario puede cargar fotografías de colegas en la oficina a una red social profesional como LinkedIn®, mientras que el usuario puede cargar fotografías de la reunión de un amigo en una red social como Facebook® o un círculo dedicado a amigos en una red social como Google Plus®.
[0028] Por el contrario, la divulgación actual proporciona técnicas que permiten compartir imágenes de una manera más inteligente. En algunos modos de realización, se identifican uno o más objetos del campo de visión de la cámara. Se pueden obtener varios atributos compartidos asociados con la imagen utilizando información de las redes sociales del usuario y varias otras técnicas adecuadas, como se describe con más detalle a continuación. Según los atributos compartidos, el dispositivo puede proporcionar automáticamente al usuario sugerencias para compartir las imágenes adquiridas o compartirlas automáticamente sin la intervención del usuario.
[0029] La FIG. 1 ilustra un dispositivo a modo de ejemplo que incorpora partes del dispositivo empleado en la puesta en práctica de los modos de realización de la invención. Un dispositivo a modo de ejemplo como se ilustra en la FIG. 1 se puede incorporar como parte del dispositivo informatizado descrito a continuación. Por ejemplo, el dispositivo 100 puede representar algunos de los componentes de un dispositivo móvil. Un dispositivo móvil puede ser cualquier dispositivo informático con una unidad sensorial de entrada, como una cámara y una unidad de visualización. Entre los ejemplos de un dispositivo manual se incluyen, sin limitarse a, consolas de videojuegos, tablets, teléfonos inteligentes, dispositivos de cámara y cualquier otro dispositivo portátil adecuado para ejecutar modos de realización de la invención. La FIG. 1 proporciona una ilustración esquemática de un modo de realización de un dispositivo 100 que puede llevar a cabo los procedimientos proporcionados por otros diversos modos de realización, descritos en el presente documento, y/o que puede funcionar como el dispositivo principal, un quiosco/terminal remoto, un dispositivo de punto de venta, un dispositivo móvil, un descodificador y/o un dispositivo. La FIG. 1 está destinada solo a proporcionar una ilustración general de diversos componentes, donde algunos de o todos ellos pueden utilizarse según corresponda. La FIG. 1, por lo tanto, ilustra en términos generales cómo elementos de sistema individuales pueden implementarse de manera relativamente independiente o relativamente más integrada. La FIG. 1 es un dispositivo de cámara de mano o dispositivo móvil a modo de ejemplo que puede usar componentes como se describe en referencia a la FIG. 1. En un modo de realización, solo algunos de los componentes descritos en la FIG. 1 están implementados y habilitados para ejecutar modos de realización de la invención. Por ejemplo, un dispositivo de cámara puede tener una o más cámaras, componentes de almacenamiento o procesamiento junto con otros componentes descritos en la FIG. 1.
[0030] El dispositivo 100 se muestra comprendiendo elementos de hardware que pueden acoplarse eléctricamente por medio de un bus 105 (o que pueden comunicarse de otro modo, según sea apropiado). Los elementos de hardware pueden incluir uno o más procesadores 110, incluyendo de manera no limitativa uno o más procesadores de propósito general y/o uno o más procesadores de propósito específico (tales como chips de procesamiento de señales digitales, procesadores de aceleración de gráficos y/o similares); uno o más dispositivos de entrada 115, que pueden incluir de manera no limitativa una cámara, sensores (incluidos sensores inerciales), un ratón, un teclado y/o similares; y uno o más dispositivos de salida 120, que pueden incluir de manera no limitativa una unidad de visualización, una impresora y/o similares. Además, los elementos de hardware también pueden incluir una o más cámaras 150, como se muestra en la FIG. 1, para adquirir el contenido de la imagen como se analiza con más detalle a continuación.
[0031] El dispositivo 100 puede incluir además (y/o puede estar en comunicación con) uno o más dispositivos de almacenamiento no transitorios 125 que pueden comprender, sin limitación, almacenamiento local y/o accesible por red, y/o puede incluir, sin limitación, una unidad de disco, una disposición de unidades, un dispositivo de almacenamiento óptico, un dispositivo de almacenamiento de estado sólido tal como una memoria de acceso aleatorio ("RAM") y/o una memoria de solo lectura ("ROM"), que puede ser programable, actualizarse de manera inmediata y/o similares. Dichos dispositivos de almacenamiento pueden estar configurados para implementar cualquier almacenamiento de datos adecuado, incluyendo, sin limitación, varios sistemas de archivos, estructuras de bases de datos y/o similares.
[0032] El dispositivo 100 también puede incluir un subsistema de comunicación 130, que puede incluir, sin limitación, un módem, una tarjeta de red (inalámbrica o cableada), un dispositivo de comunicación por infrarrojos, un dispositivo de comunicaciones inalámbricas y/o un conjunto de chips (tal como un dispositivo Bluetooth™, un dispositivo 802,11, un dispositivo WiFi, un dispositivo WiMax, componentes de comunicación celular, etc.) y/o similares. El subsistema de comunicación 130 puede permitir el intercambio de datos con una red (tal como la red descrita a continuación, por citar un ejemplo), otros dispositivos y/o cualquier otro dispositivo descrito en el presente documento. En muchos modos de realización, el dispositivo 100 comprenderá además una memoria de trabajo no transitoria 135, que puede incluir un dispositivo RAM o ROM, como los descritos anteriormente.
[0033] El dispositivo 100 también puede comprender elementos de software, mostrados dentro de la memoria de trabajo 135, que incluyen un sistema operativo 140, controladores de dispositivo, librerías ejecutables y/u otro código, tal como uno o más programas de aplicación 145, que pueden comprender programas informáticos proporcionados por diversos modos de realización, y/o que pueden estar diseñados para implementar procedimientos y/o configurar sistemas, proporcionados por otros modos de realización, como los descritos en el presente documento. Simplemente a modo de ejemplo, uno o más procedimientos descritos con respecto al (a los) procedimiento(s) analizado(s) anteriormente podrían implementarse como código y/o instrucciones ejecutables por un ordenador (y/o un procesador dentro de un ordenador); entonces, en un aspecto, dichos código y/o instrucciones pueden usarse para configurar y/o adaptar un ordenador de propósito general (u otro dispositivo) para realizar una o más operaciones de acuerdo con los procedimientos descritos.
[0034] Un conjunto de estas instrucciones y/o código puede almacenarse en un medio de almacenamiento legible por ordenador, tal como el (los) dispositivo(s) de almacenamiento 125 descrito(s) anteriormente. En algunos casos, el medio de almacenamiento podría incorporarse dentro de un dispositivo, tal como el dispositivo 100. En otros modos de realización, el medio de almacenamiento podría ser independiente de un dispositivo (por ejemplo, un medio extraíble, tal como un disco compacto) y/o proporcionarse en un paquete de instalación, de modo que el medio de almacenamiento puede usarse para programar, configurar y/o adaptar un ordenador de propósito general con las instrucciones/código almacenados en el mismo. Estas instrucciones podrían tomar la forma de código ejecutable, que es ejecutable por el dispositivo 100, y/o podrían tomar la forma de código fuente y/o instalable que, tras la compilación y/o instalación en el dispositivo 100 (por ejemplo, usando cualquiera de varios compiladores, programas de instalación, componentes de compresión/descompresión, etc., disponibles en general) toma la forma de código ejecutable.
[0035] Pueden realizarse variaciones significativas de acuerdo con requisitos específicos. Por ejemplo, también podría usarse hardware personalizado, y/o elementos particulares podrían implementarse en hardware, software (incluyendo software portátil, tal como applets, etc.) o en ambos. Además, puede utilizarse una conexión con otros dispositivos informáticos, tales como dispositivos de red de entrada/salida.
[0036] Algunos modos de realización pueden emplear un dispositivo (tal como el dispositivo 100) para realizar procedimientos de acuerdo con la divulgación. Por ejemplo, algunos de, o todos, los procesos de los procedimientos descritos pueden ser realizados por el dispositivo 100 como respuesta a que el procesador 110 ejecute una o más secuencias de una o más instrucciones (que podrían incorporarse en el sistema operativo 140 y/u otro código, tal como un programa de aplicación 145) contenidas en la memoria de trabajo 135. Dichas instrucciones pueden introducirse en la memoria de trabajo 135 desde otro medio legible por ordenador, tal como uno o más de los dispositivos de almacenamiento 125. Simplemente a modo de ejemplo, la ejecución de las secuencias de instrucciones contenidas en la memoria de trabajo 135 podrían causar que el (los) procesador(es) 110 realice(n) uno o más procesos de los procedimientos descritos en el presente documento.
[0037] Los términos "medio legible por máquina" y "medio legible por ordenador", como se usan en el presente documento, pueden referirse a cualquier artículo de fabricación o medio que participa para proporcionar datos que hacen que una máquina funcione de una manera específica. En un modo de realización implementado usando el dispositivo 100, varios medios legibles por ordenador podrían implicarse para proporcionar instrucciones/código a los procesador(es) 110 para su ejecución y/o podrían usarse para almacenar y/o transportar tales instrucciones/código (por ejemplo, como señales). En muchas implementaciones, un medio legible por ordenador es un medio de almacenamiento físico y/o tangible. Un medio de este tipo puede adoptar muchas formas, incluyendo, pero sin limitarse a, medios no volátiles, medios volátiles y medios de transmisión. Los medios no volátiles incluyen, por ejemplo, discos ópticos y/o magnéticos, tales como el/los dispositivo(s) de almacenamiento 125. Los medios volátiles incluyen, sin limitación, memoria dinámica, tal como la memoria de trabajo 135. "Medio legible por ordenador", "medio de almacenamiento" y otros términos utilizados en el presente documento no se refieren a señales de propagación transitorias. Las formas comunes de medios físicos y/o tangibles legibles por ordenador incluyen, por ejemplo, un disquete, un disco flexible, un disco duro, una cinta magnética o cualquier otro medio magnético, un CD-ROM, cualquier otro medio óptico, tarjetas perforadas, cinta perforada, cualquier otro medio físico con patrones de agujeros, una RAM, una PROM, una EPROM, una FLASH-EPROM, o cualquier otro cartucho o chip de memoria.
[0038] Diversas formas de medios legibles por ordenador pueden utilizarse para transportar una o más secuencias de una o más instrucciones al (a los) procesador(es) 110 para su ejecución. Simplemente a modo de ejemplo, las instrucciones pueden transportarse inicialmente en un disco magnético y/o disco óptico de un ordenador remoto.
[0039] El subsistema de comunicación 130 (y/o sus componentes) en general recibirá las señales, y a continuación el bus 105 podría transportar las señales (y/o los datos, instrucciones, etc. transportados por las señales) a la memoria de trabajo 135, desde la cual el (los) procesador(es) 110 recupera(n) y ejecuta(n) las instrucciones. Las instrucciones recibidas por la memoria de trabajo 135 pueden almacenarse opcionalmente en un dispositivo de almacenamiento no transitorio 125, bien antes o bien después de su ejecución por el/los procesador(es) 110.
[0040] Los procedimientos, sistemas y dispositivos analizados anteriormente son ejemplos. Diversos modos de realización pueden omitir, sustituir o añadir diversos procedimientos o componentes según sea apropiado. Por ejemplo, en configuraciones alternativas, los procedimientos descritos pueden realizarse en un orden diferente al descrito, y/o pueden añadirse, omitirse y/o combinarse diversas etapas. Además, las características descritas con respecto a determinados modos de realización se pueden combinar en otros diversos modos de realización. Se pueden combinar diferentes aspectos y elementos de los modos de realización de una manera similar. Además, la tecnología evoluciona y, por lo tanto, muchos de los elementos son ejemplos que no limitan el alcance de la divulgación a esos ejemplos específicos.
[0041] Los detalles específicos se proporcionan en la descripción para proporcionar un entendimiento exhaustivo de los modos de realización. Sin embargo, los modos de realización pueden ponerse en práctica sin estos detalles específicos. Por ejemplo, se han mostrado circuitos, procesos, algoritmos, estructuras y técnicas bien conocidos sin detalles innecesarios para evitar oscurecer los modos de realización. Esta descripción solo proporciona ejemplos de modos de realización y no pretende limitar el alcance, la aplicabilidad o la configuración de la invención. Más bien, la descripción anterior de los modos de realización proporcionará a los expertos en la técnica una descripción que permite implementar modos de realización de la invención. Pueden hacerse varios cambios en la función y en la disposición de los elementos sin apartarse del espíritu ni del alcance de la invención.
[0042] Además, algunos modos de realización se han descrito como procesos representados como diagramas de flujo o diagramas de bloques. Aunque cada uno puede describir las operaciones como un proceso secuencial, muchas de las operaciones se pueden realizar en paralelo o simultáneamente. Así mismo, el orden de las operaciones se puede reorganizar. Un proceso puede tener pasos adicionales no incluidos en la figura Además, los modos de realización de los procedimientos pueden implementarse mediante hardware, software, firmware, middleware, microcódigo, lenguajes de descripción de hardware o cualquier combinación de los mismos. Cuando se implementan en software, firmware, middleware o microcódigo, el código de programa o segmentos de código para realizar las tareas asociadas pueden almacenarse en un medio legible por ordenador, tal como un medio de almacenamiento. Los procesadores pueden realizar las tareas asociadas.
[0043] Habiendo descrito varios modos de realización, se pueden usar diversas modificaciones, estructuras alternativas y equivalentes sin apartarse del espíritu de la divulgación. Por ejemplo, los elementos anteriores pueden ser meramente un componente de un sistema más grande, en el que otras reglas pueden tener prioridad sobre, o modificar de otro modo, la aplicación de la invención. Además, se pueden realizar una serie de pasos antes, durante o después de considerar los elementos anteriores. En consecuencia, la descripción anterior no limita el alcance de la divulgación.
[0044] Se proporcionan técnicas para tomar excelentes fotografías de objetos, incluidas las personas en un evento. Las técnicas descritas en los modos de realización de la invención son particularmente útiles para rastrear uno o más objetos y tomar fotografías automáticamente de objetos de interés durante un evento. El usuario puede cambiar el dispositivo móvil a un modo de evento que le permita delegar algunas de las responsabilidades de tomar fotografías al dispositivo móvil durante un evento.
[0045] La FIG. 2 es un ejemplo a modo de ejemplo realizado por componentes del dispositivo, como el dispositivo 100 de la FIG. 1 para rastrear a una persona en particular durante un período de tiempo en un evento. La FIG. 2 ilustra dos imágenes de un grupo de amigos en una fiesta, tomadas por el dispositivo móvil en modo de evento. El objeto de interés identificado usando el procesador 110 de la FIG. 1 en la FIG. 2A es una mujer particular 202 (que se muestra bailando en la fiesta). El dispositivo móvil 100 rastrea a la mujer en la fiesta y adquiere fotografías de la mujer mientras se mueve por la habitación. En la FIG. 2B, la cámara 150 acoplada al dispositivo 100 adquiere otra fotografía de la misma mujer 204 bailando en la fiesta en una nueva ubicación. El dispositivo 100 puede colocarse en un modo de evento automáticamente o mediante un usuario que habilita el modo para identificar y rastrear sujetos tales como la mujer de las FIGS. 2A y 2B.
[0046] La FIG. 3 es un diagrama de flujo simplificado, que ilustra un procedimiento 300 para rastrear un objeto y adquirir datos de imagen desde el campo de visión. El procedimiento 300 puede denominarse "Modo de evento", mientras describe modos de realización de la invención, y no debe interpretarse de una manera que limite los aspectos de la invención de ninguna manera. El procedimiento 300 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un ejemplo, el procedimiento 300 lo realiza el dispositivo 100 de la FIG. 1.
[0047] Con referencia a la FIG. 3, en el bloque 302, el dispositivo obtiene datos de un campo de visión de la cámara 150 acoplada al dispositivo con el fin de identificar uno o más objetos presentes en el campo de visión. En algunas implementaciones, los datos pueden ser una representación de todo el campo de visión visible para la lente de la cámara (por ejemplo, la FIG. 2A) o una representación de una parte del campo de visión visible para la lente de la cámara (por ejemplo, la persona 202 y área circundante) de la cámara acoplada al dispositivo.
[0048] En el bloque 304, el dispositivo accede a una identificación de al menos un objeto, tal como una persona particular 202 de la FIG. 2A. La información de identificación sobre la imagen se obtiene procesando los datos adquiridos en el bloque 302. En algunas implementaciones, la identificación de un objeto se realiza utilizando una representación de baja resolución del objeto. El procesamiento de los datos para identificar uno o más objetos de los datos se puede realizar localmente en el dispositivo o de forma remota utilizando recursos de red, como un servidor remoto. Cuando la identificación del objeto ocurre en un servidor remoto, el dispositivo transmite datos al servidor remoto para el procesamiento de los datos para la identificación de uno o más objetos, y recibe la identificación del objeto para el rastreo, determinando el contenido deseado y adquiriendo los datos de imagen. Además, el dispositivo puede usar datos almacenados localmente de una base de datos local almacenada en el dispositivo o una base de datos remota con el fin de identificar un objeto. En un modo de realización, el dispositivo de la FIG. 1 accede a una base de datos interna almacenada en el dispositivo antes de acceder a una base de datos externa que pertenece a un recurso de red para identificar al menos un objeto. En otros modos de realización, la base de datos interna es un subconjunto de la base de datos externa. Por ejemplo, la base de datos interna puede implementarse como una memoria caché que almacena la información a la que se accedió más recientemente. La memoria caché puede implementarse utilizando memorias caché de hardware, memoria de trabajo 135 o dispositivo(s) de almacenamiento 125.
[0049] En el modo de evento, el dispositivo accede a la información de identificación de uno o más objetos de interés para el evento visible para la cámara. En un aspecto, la identificación de al menos un objeto puede incluir generar una representación de una parte de la imagen asociada con el objeto utilizando algunos o todos los datos visibles para la cámara y comparar la representación de una parte de la imagen con una representación de un objeto de referencia almacenado en una base de datos. En algunos casos, el objeto de interés es una persona y se utilizan técnicas de reconocimiento facial para identificar una parte de la imagen asociada con al menos un objeto que comprende una cara de la persona. En la FIG. 2A, la persona 202 puede ser identificada utilizando técnicas de reconocimiento facial. Se pueden utilizar técnicas de reconocimiento facial conocidas como el análisis de componentes principales, el análisis de discriminación lineal, la coincidencia de gráficos elásticos en racimo o cualquier otra técnica adecuada para el reconocimiento facial.
[0050] Las caras de las personas en el campo de visión se pueden comparar con las imágenes de referencia de caras almacenadas localmente en el dispositivo. Además, el dispositivo se puede conectar a recursos de red mediante una conexión inalámbrica como WiFi, Wimax, LTE, CDMA, conexión GSM o cualquier otro medio adecuado. En algunos casos, el dispositivo también puede conectarse a recursos de red a través de una conexión por cable. El dispositivo puede tener acceso a la información de identificación en el campo de visión de la cámara utilizando una red social utilizando recursos de la red. El dispositivo puede utilizar las relaciones del usuario y/o la confianza digital establecida y accesible a través de la red social del usuario. Por ejemplo, el dispositivo puede acceder a las redes sociales del usuario y facilitar la correspondencia de la imagen obtenida con las imágenes de redes sociales como Facebook® y LinkedIn®. El reconocimiento facial puede no limitarse a las personas y puede incluir el reconocimiento facial de animales. Por ejemplo, los sitios web de redes sociales tienen cuentas dedicadas a mascotas. Por lo tanto, la identificación de las características faciales para el reconocimiento facial puede incluir características faciales y otras características de los animales.
[0051] Como se analizó anteriormente, el dispositivo puede usar un sistema jerárquico para identificar eficientemente objetos en el campo de visión de la lente de la cámara comparándolos con las imágenes almacenadas. Por ejemplo, si el hermano del usuario entra en el campo de visión, el dispositivo móvil puede tener una imagen almacenada del hermano del usuario en cualquiera de los medios de almacenamiento locales, una memoria caché o memoria. El dispositivo puede cargarse con los objetos de interés más relevantes para el usuario mediante el dispositivo. Por otro lado, puede haber situaciones en las que un amigo de la escuela secundaria poco visitado que solo está conectado al usuario a través de Facebook aparece frente a la lente de la cámara. En tal escenario, el dispositivo puede buscar el almacenamiento local, la memoria caché y la memoria y puede no identificar a la persona que usa los recursos locales. El dispositivo móvil puede conectarse a una red social utilizando los recursos de la red para identificar la cara comparándola con la red social del usuario. En este caso, el dispositivo facilitará la búsqueda del amigo del usuario a través de sus conexiones en Facebook®.
[0052] Una red social o grupo social puede definirse como un servicio, plataforma o sitio en línea que se centra en facilitar la construcción de redes sociales o relaciones sociales entre personas que, por ejemplo, comparten intereses, actividades, antecedentes o conexiones de la vida real. Un servicio de red social puede consistir en una representación de cada usuario (a menudo un perfil), sus enlaces sociales y una variedad de servicios adicionales. La mayoría de los servicios de redes sociales están basados en la web y proporcionan medios para que los usuarios interactúen a través de Internet, como el correo electrónico y la mensajería instantánea.
[0053] Brevemente, haciendo referencia a la FIG.4 simplificada en exceso y a modo de ejemplo, como se analizó anteriormente, el dispositivo 402 (dispositivo 100 de la FIG. 1) puede estar conectado a recursos de red. Los recursos de red pueden incluir, entre otros, conectividad de red, potencia de procesamiento, capacidad de almacenamiento y la infraestructura de software. En algunas implementaciones, todo o parte del recurso de red puede denominarse una "nube". Las bases de datos remotas 406, los servidores 410 y las redes sociales 408 pueden existir como parte de la red 404. Las redes sociales pueden incluir redes de conectividad social y redes sociales como Facebook®, Twitter®, Four-Square®, Google Plus®, etc. El dispositivo 402 puede conectarse a los diversos recursos de la red a través de una conexión inalámbrica o por cable.
[0054] En otro ejemplo, la identificación del objeto puede incluir acceder a al menos una característica asociada con el al menos un objeto, y determinar la identificación del al menos un objeto basándose en la al menos una característica asociada con el al menos un objeto. Por ejemplo, durante un partido de fútbol, el dispositivo móvil puede identificar un balón de fútbol y rastrear el balón de fútbol en el campo basándose en las dimensiones y características del balón de fútbol o haciendo coincidir parcialmente el balón de fútbol con una imagen almacenada.
[0055] Una vez que se identifican uno o más objetos en el campo de visión de la lente de la cámara, el dispositivo puede proporcionar una interfaz de usuario para que el usuario seleccione, rechace o modifique los objetos identificados. La interfaz de usuario puede implicar proporcionar una interfaz para el usuario utilizando una unidad de visualización acoplada al dispositivo móvil. La unidad de visualización podría ser una entrada sensorial capacitiva, como una "pantalla táctil". En un modo de realización, el dispositivo móvil puede resaltar los objetos identificados dibujando cuadros o círculos alrededor de los objetos identificados o mediante cualquier otro medio adecuado. En una implementación, además de identificar los objetos, el dispositivo móvil también puede etiquetar los objetos en el campo de visión de la cámara. En una implementación, la unidad de visualización puede mostrar una representación del área total visible para la lente. El dispositivo puede dibujar un cuadro en la pantalla que representa la imagen que abarca la región que la cámara almacenará como imagen o vídeo. Además, el dispositivo puede resaltar los objetos de interés para el usuario dentro del área encuadrada. Por ejemplo, el usuario puede dibujar un cuadro o cualquier forma adecuada alrededor del objeto de interés o simplemente seleccionar el objeto identificado y/o etiquetado. En algunos modos de realización, el usuario también puede seleccionar verbalmente el objeto. Por ejemplo, el usuario puede dar al dispositivo móvil un comando verbal para "seleccionar a Tom", donde Tom es una de las etiquetas para los objetos etiquetados que se muestran en la unidad de visualización.
[0056] Refiriéndonos brevemente a las FIGS. 5A y 5B, se ilustran ejemplos de un modo de evento como el descrito anteriormente. Una persona en particular, designada aquí como un hombre 502, ha sido seleccionada durante el inicio del modo de evento o en un momento diferente. La selección del hombre 502 puede indicarse visualmente, por ejemplo, resaltando o haciendo un círculo alrededor de 508 alrededor del hombre 502. La FIG.
5A muestra un campo de visión a modo de ejemplo visible para la cámara 150 y visualizado en la unidad de visualización 512 del dispositivo por primera vez. El dispositivo puede usar componentes similares a los componentes descritos en referencia al dispositivo 100 de la FIG. 1. Por ejemplo, la unidad de visualización puede ser un dispositivo de salida 120 y la identificación del hombre 502 y otros objetos en el campo de visión de la cámara 150 se puede realizar utilizando el procesador 110 y las instrucciones de la memoria de trabajo 135. En la FIG. 5A, dos hombres (502 y 504) y una pelota 506 se muestran en la unidad de visualización del dispositivo. El dispositivo identifica y rastrea a la persona 502 a lo largo del tiempo. En la unidad de visualización, el dispositivo puede resaltar a la persona 502, como se muestra en la FIG. 5A mediante un círculo (aunque se pueden usar muchas técnicas diferentes). Además, el dispositivo puede mostrar visualmente la caja 510 para indicar al usuario contenido particular que el dispositivo puede adquirir si se adquiere una imagen. La interfaz de usuario puede permitir al usuario seleccionar, rechazar o modificar los objetos identificados. Por ejemplo, el usuario puede anular la selección de una persona 502 y seleccionar otra persona 504 usando la pantalla táctil.
[0057] La FIG. 5B muestra un campo de visión a modo de ejemplo visible para la cámara y visualizado en la unidad de visualización 512 del dispositivo por segunda vez. Ambas personas (502 y 504) se mueven en el campo de visión entre la primera vez (como se muestra en la FIG. 5A) y la segunda vez (como se muestra en la FIG. 5B). El dispositivo continúa rastreando a la persona 502 presente en el campo de visión y resalta la persona 502 y el contenido particular alrededor de la persona 502 que estaría en una imagen adquirida en el momento actual. En una configuración, el dispositivo puede considerar la proximidad de la persona 502 a la pelota 506 como un evento desencadenante para obtener los datos de la imagen.
[0058] Con referencia al flujo a modo de ejemplo de la FIG. 3 nuevamente, en el bloque 306, el dispositivo comienza automáticamente a rastrear el objeto identificado presente en el campo de visión durante un período de tiempo. El dispositivo puede rastrear el objeto durante el tiempo que el modo de evento esté habilitado y siempre que el objeto esté dentro del campo de visión de la lente de la cámara del dispositivo. El dispositivo puede rastrear el objeto utilizando procedimientos conocidos, como el rastreo del flujo óptico y la correlación cruzada normalizada de características interesantes o cualquier otro procedimiento adecuado en un área de interés. La cámara puede rastrear el al menos un objeto usando uno o más de una lente gran angular, capacidades de zoom de la cámara, una lente mecánica que permite que la lente gire, con el dispositivo colocado en un trípode giratorio, una imagen de alta resolución o cualquier otro medio adecuado que permite que el dispositivo rastree el objeto sobre un área más grande que el tamaño de imagen/vídeo deseado. Una lente de alta resolución puede permitir recortar fotografías de baja resolución que incluyan los objetos de interés.
[0059] La duración del modo de evento puede ser una duración de tiempo configurable en un modo de realización. En otro modo de realización, los objetos son identificados y rastreados por el dispositivo en el campo de visión de la cámara al detectar movimiento en el campo de visión de la cámara. La duración del tiempo para el modo de evento puede basarse en el movimiento en el campo de visión de la lente de la cámara acoplada al dispositivo o el sonido en las proximidades del dispositivo móvil. En otro modo de realización más, el dispositivo puede dejarse en un modo de supervisión de eventos, en el que el dispositivo supervisa los eventos de activación o identifica objetos de interés en baja resolución. En un aspecto, cuando se identifica un objeto de interés, el dispositivo aumenta la resolución para tomar vídeos o fotografías de mayor resolución del objeto. El dispositivo puede cambiar a un modo de mayor resolución al detectar movimiento en el campo de visión de la cámara. Además, el dispositivo puede cambiar a un modo de suspensión después de detectar un período predefinido de inactividad en un entorno del dispositivo.
[0060] En un ejemplo, la imagen se adquiere utilizando una lente gran angular. Una lente gran angular se refiere a una lente que tiene una longitud focal sustancialmente más pequeña que la distancia focal de una lente normal para un plano de película dado. Este tipo de lente permite incluir una parte mayor de la escena en la fotografía. Una imagen adquirida que utiliza un disparo de gran angular habitualmente está distorsionada. La imagen adquirida se puede distorsionar primero antes de procesar la imagen para el rastreo. El proceso de distorsión de la imagen puede incluir la aplicación del proceso inverso a la calibración de la cámara a la imagen. Una vez que la imagen no está distorsionada, el área de interés en la imagen se rastrea y se recorta de acuerdo con los modos de realización de la invención.
[0061] En otro ejemplo, el dispositivo puede usar una lente capaz de tomar una fotografía de alta resolución que cubra un área grande. Esto puede permitir rastrear el objeto sobre un área más grande. El área que rodea e incluye el objeto identificado se puede adquirir con una resolución más baja, pero aceptable. En una implementación, solo se adquiere una muestra de una subsección de la imagen completa, incluido el objeto de interés, con fines de identificación y rastreo. El muestreo de una subsección de la imagen puede ser ventajoso, ya que permite una mejor gestión del ancho de banda de memoria y menores requisitos de almacenamiento. En otra implementación, la imagen completa se adquiere y procesa en un momento posterior.
[0062] Además, el dispositivo puede estar equipado con múltiples cámaras, lentes y/o sensores para obtener información adicional. Las cámaras/sensores adicionales pueden permitir una mejor identificación y rastreo del objeto en un área más grande o mejores capacidades de detección para identificar el objeto o el evento.
[0063] En el bloque 308, el dispositivo determina el contenido particular para la imagen desde el campo de visión basándose en la identificación y el rastreo del objeto. El dispositivo puede usar técnicas para enmarcar mejor el objeto como parte de la imagen adquirida. Por ejemplo, el dispositivo puede enmarcar el objeto de interés en el centro de la imagen, o usar la técnica de la "regla de los tercios". En otras imágenes, por ejemplo, con un edificio en el fondo, como un punto de referencia famoso y una persona en primer plano de la imagen, el dispositivo puede enmarcar la imagen para que tanto el punto de referencia como la persona estén posicionados correctamente. Como se describió anteriormente, el encuadre adecuado de los objetos en la imagen se puede lograr cambiando el procesamiento de la imagen y/o las propiedades de la cámara para adquirir el contenido deseado para la imagen.
[0064] En el bloque 310, una vez que se determina el contenido deseado para la imagen, el dispositivo adquiere los datos de imagen que comprenden el contenido deseado. En un modo de realización, el contenido deseado se captura desde el campo de visión. En otro modo de realización, el contenido deseado se recorta de una imagen de alta resolución ya capturada. Además de reconocer el contenido deseado, el dispositivo puede identificar ciertos eventos de activación en el campo de visión de la lente de la cámara que son de interés para el usuario, una vez que se identifica el objeto de interés y se inicia el rastreo del objeto. El dispositivo puede adquirir los datos de imagen para el contenido deseado en respuesta a la detección de tales eventos desencadenantes. Los eventos de activación de interés pueden determinarse analizando la entrada sensorial de los diversos dispositivos de entrada acoplados al dispositivo móvil, como el micrófono, la cámara y la pantalla táctil. Un evento desencadenante para adquirir datos de imagen podría caracterizarse como un evento desencadenante asociado con un objeto ya identificado, y/o cualquier objeto en el campo de visión. Por ejemplo, un evento desencadenante puede incluir, entre otros, la identificación de un objeto de interés, el movimiento del objeto de interés, la sonrisa de una persona identificada, el baile de la persona identificada, el ruido en las proximidades del dispositivo y la detección una pluralidad de miembros del grupo presentes de un grupo. Por ejemplo, si más del cincuenta por ciento de las personas del campo de visión pertenecen a la familia extendida del usuario, el dispositivo puede considerar esta ocurrencia como un evento desencadenante. En otro modo de realización, un evento desencadenante también puede estar asociado con un movimiento o un cambio en el campo de visión. Por ejemplo, el movimiento de una pelota de fútbol hacia el poste de la portería puede ser un evento desencadenante. Por otro lado, los fuegos artificiales que estallan en el campo de visión de la cámara o un sonido fuerte en el entorno de la cámara también pueden identificarse como un evento desencadenante por parte del dispositivo.
[0065] En un ejemplo, el dispositivo rastrea los objetos y toma fotografías consecutivas. El dispositivo puede adquirir una pluralidad de imágenes basadas en eventos de activación o detección del contenido deseado. El dispositivo puede postprocesar las imágenes para mantener solo las fotografías más deseables fuera del lote mientras descarta el resto, en el que la deseabilidad de una imagen puede basarse en una o más condiciones de iluminación, enmarcado del al menos un objeto, sonrisa de al menos una persona en la imagen y detectar una pluralidad de miembros del grupo presentes en la imagen de un grupo o cualquier otra característica similar. Además, si hay varias fotografías del mismo objeto y fondo, el dispositivo puede categorizar la fotografía con el mayor número de sonrisas o una fotografía que capture completamente el objeto como un mejor candidato para la retención que las otras fotografías. En otro modo de realización, el dispositivo puede tomar fotografías del objeto de manera oportunista a lo largo del tiempo basándose en la detección de eventos desencadenantes en el campo de visión o en las proximidades del dispositivo móvil y a continuación categorizar, clasificar y mantener las fotografías más deseables.
[0066] En un ejemplo, el dispositivo adquiere un vídeo mediante la adquisición continua de los datos de imagen que comprenden al menos un objeto durante el período de tiempo. El dispositivo puede capturar múltiples imágenes en rápida sucesión y generar un vídeo a partir de las imágenes sucesivas.
[0067] Debería apreciarse que los pasos específicos ilustrados en la FIG. 3 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 3 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 300.
[0068] La FIG. 6 es un diagrama de flujo simplificado, que ilustra un procedimiento 600 para proporcionar una interfaz de usuario para el usuario en el dispositivo. El procedimiento 600 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un modo de realización, el procedimiento 600 lo realiza el dispositivo 100 de la FIG. 1.
[0069] Con referencia a la FIG. 6, en el bloque 602, el dispositivo muestra la parte visible desde el campo de visión de la cámara en la unidad de visualización del dispositivo. La unidad de visualización puede ser una unidad de salida 120 como se describe en referencia al dispositivo 100 de la FIG. 1. En el bloque 604, el dispositivo resalta el contenido deseado de la imagen. El contenido deseado puede incluir un objeto identificado. El contenido deseado puede resaltarse usando un rectángulo perforado o cualquier otro medio adecuado para resaltar el contenido deseado. En el bloque 606, el dispositivo resalta el objeto identificado. El objeto identificado se puede resaltar usando un círculo o un óvalo alrededor del objeto identificado o usando cualquier otro medio adecuado. Opcionalmente, en el bloque 608, el dispositivo recibe información para realizar una de seleccionar, rechazar o modificar la región resaltada. Por ejemplo, el usuario puede darse cuenta de que el dispositivo está seleccionando un objeto diferente de lo que desea el usuario. El usuario puede tocar un objeto diferente en la unidad de visualización. La unidad de visualización detecta la entrada. El dispositivo recibe la entrada de la unidad de visualización y selecciona el objeto indicado por el usuario. Junto con el objeto resaltado, la imagen que comprende el contenido deseado también cambia para presentar una fotografía con una composición mejorada a medida que el usuario selecciona el objeto como foco de la imagen. También opcionalmente, en el bloque 610, el dispositivo etiqueta el objeto resaltado con información identificable sobre el objeto, tal como un nombre de usuario para que la persona sea fácilmente identificable por el usuario.
[0070] Debería apreciarse que los pasos específicos ilustrados en la FIG. 6 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 6 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 600.
[0071] La FIG. 7 es un diagrama de flujo simplificado, que ilustra un procedimiento 700 para adquirir el contenido deseado de una imagen de alta resolución. El procedimiento 700 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un modo de realización, el procedimiento 700 lo realiza el dispositivo 100 de la FIG. 1.
[0072] Con referencia a la FIG. 7, en el bloque 702, el dispositivo puede rastrear objetos usando una lente de cámara de alta resolución durante al menos partes del modo de evento. El uso de una cámara de alta resolución permite que el dispositivo rastree el objeto en un área más grande que el tamaño de imagen/vídeo deseado. En el bloque 704, el dispositivo puede obtener imágenes de alta resolución. En el bloque 706, el dispositivo recorta el contenido deseado de la imagen de alta resolución. Una lente de alta resolución puede permitir recortar fotografías de baja resolución que incluyen el contenido deseado, incluidos los objetos de interés. En el proceso de recorte de fotografías, los componentes del dispositivo pueden equilibrar la proporcionalidad del objeto que se está rastreando con respecto a los otros objetos en la imagen.
[0073] Debería apreciarse que los pasos específicos ilustrados en la FIG. 7 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 7 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 700.
[0074] La FIG. 8 es un diagrama de flujo simplificado, que ilustra un procedimiento 800 para retener imágenes deseables. El procedimiento 800 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un modo de realización, el procedimiento 800 lo realiza el dispositivo 100 de la FIG. 1.
[0075] En un modo de realización, los componentes del dispositivo rastrean objetos y adquieren fotografías consecutivas. Con referencia al diagrama de flujo a modo de ejemplo de la FIG. 8, en el bloque 802, los componentes del dispositivo adquieren una pluralidad de imágenes basadas en eventos de activación o detección del contenido deseado. En el bloque 804, el dispositivo detecta las características deseables asociadas con cada imagen adquirida. En el bloque 806, los componentes del dispositivo pueden clasificar cada imagen basándose en las características de deseabilidad asociadas con cada imagen, en el que la deseabilidad de una imagen puede basarse en una o más condiciones de iluminación, enmarcado del al menos un objeto, sonrisa de al menos una persona en la imagen, y detectar una pluralidad de miembros del grupo presentes en la imagen de un grupo o cualquier otra característica similar. En el bloque 808, los componentes del dispositivo pueden postprocesar las imágenes para mantener solo las fotografías más deseables fuera del lote y descartar el resto. Además, si hay varias fotografías del mismo objeto y fondo, el dispositivo puede categorizar la fotografía con el mayor número de sonrisas o una fotografía que capture completamente el objeto como un mejor candidato para la retención que las otras fotografías. En otro modo de realización, el dispositivo puede tomar fotografías del objeto de manera oportunista a lo largo del tiempo basándose en la detección de eventos desencadenantes en el campo de visión o proximidad del dispositivo móvil y a continuación categorizar, clasificar y retener las fotografías más deseables.
[0076] Debería apreciarse que los pasos específicos ilustrados en la FIG. 8 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 8 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 800.
[0077] La FIG. 9 es un diagrama de flujo simplificado, que ilustra un procedimiento 900 para cambiar de baja resolución a alta resolución para adquirir imágenes. El procedimiento 900 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un modo de realización, el procedimiento 900 lo realiza el dispositivo 100 de la FIG. 1.
[0078] En un modo de realización, el dispositivo móvil puede dejarse en un modo de supervisión de eventos, en el que el dispositivo supervisa los eventos de activación o identifica objetos de interés en baja resolución. El dispositivo puede cambiar a un modo de alta resolución al detectar movimiento en el campo de visión de la cámara. Con referencia al flujo a modo de ejemplo de la FIG. 9, en el bloque 902, los componentes del dispositivo pueden supervisar objetos en el campo de visión en baja resolución. En el bloque 904, los componentes del dispositivo pueden identificar eventos desencadenantes u objetos de interés en el campo de visión de la cámara utilizando imágenes de baja resolución. En el bloque 906, la cámara acoplada al dispositivo cambia a alta resolución al detectar objetos de interés en el campo de visión de la cámara. En el bloque 908, los componentes del dispositivo adquieren imágenes del objeto en el evento de activación en el campo de visión de la cámara en el modo de alta resolución. Además, en algunos modos de realización, el dispositivo puede cambiar a un modo de suspensión después de detectar un período predefinido de inactividad en un entorno del dispositivo. Un modo de reposo puede incluir apagar partes del dispositivo o cambiar numerosos componentes del dispositivo a un estado de baja potencia. Por ejemplo, después de un período de inactividad, el dispositivo puede apagar la unidad de visualización del dispositivo.
[0079] Debería apreciarse que los pasos específicos ilustrados en la FIG. 9 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 9 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 900.
[0080] La FIG. 10 muestra un ejemplo para adquirir y compartir fotografías mediante el uso de un dispositivo tal como el dispositivo 100 descrito en la FIG. 1. Justo después de que el usuario adquiera una fotografía; el dispositivo anota la fotografía y hace una recomendación para compartirla. La recomendación proporcionada por el dispositivo puede basarse en la detección de la ubicación del dispositivo, las personas en la fotografía y/u otros atributos compartidos de los objetos en la fotografía y la imagen misma. Por ejemplo, el dispositivo puede detectar la ubicación al reconocer los objetos en la imagen. Si el fondo tiene el Empire State Building, el dispositivo sabe con bastante certeza que la ubicación del dispositivo es la ciudad de Nueva York. En algunas implementaciones, los modos de realización de la invención pueden detectar la ubicación mediante el reconocimiento de múltiples objetos en la imagen. Por ejemplo, si hay un Starbucks, McDonalds y una valla publicitaria de "sonrisa para turistas", entonces la ubicación es la puerta de llegada al aeropuerto de CDG en Francia. Además de o conjunto con el reconocimiento del fondo en la imagen, el dispositivo también puede determinar la ubicación basándose en la intensidad de la señal del dispositivo móvil a la torre de servicio o mediante el uso de un sistema GPS. Después de identificar los diferentes objetos en la imagen y deducir los atributos compartidos, el dispositivo puede proporcionar al usuario información que lo ayude a compartir información a través de una red. En la FIG. 10, el dispositivo anota la imagen para el usuario y le pregunta si le gustaría compartir la fotografía u otra información sobre el usuario. Si el usuario afirma, el dispositivo puede compartir la información sobre el usuario. Por ejemplo, el dispositivo puede "registrar" al usuario en una ubicación, como el Empire State Building, en una red social como Four-Square®.
[0081] La FIG. 11 es un diagrama de flujo simplificado, que ilustra un procedimiento 1100 para acceder y compartir datos de imágenes. El procedimiento 1100 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un modo de realización, el procedimiento 1100 lo realiza un dispositivo 100 de la FIG. 1.
[0082] Con referencia al flujo a modo de ejemplo de la FIG. 11, en el bloque 1102, el dispositivo accede a datos de imagen en una imagen desde un campo de visión de una cámara acoplada al dispositivo para identificar uno o más objetos presentes en el campo de visión del dispositivo. En un modo de realización, el dispositivo es un dispositivo móvil. En algunas implementaciones, los datos pueden ser una representación de todo el campo de visión visible para la lente de la cámara o una representación de una parte del campo de visión visible para la lente de la cámara acoplada al dispositivo.
[0083] En el bloque 1104, el dispositivo accede a una identificación de al menos un objeto. El dispositivo puede acceder a la identificación del objeto desde un almacenamiento local. La información de identificación con respecto a los objetos de la imagen se obtiene procesando los datos a los que se accede en el bloque 1102. En algunas implementaciones, la identificación de un objeto se realiza utilizando una representación de baja resolución del objeto. El procesamiento de los datos para identificar uno o más objetos de los datos se puede realizar localmente en el dispositivo o de forma remota utilizando recursos de red, como un servidor remoto. Cuando la identificación del objeto ocurre en un servidor remoto, el dispositivo transmite datos al servidor remoto para procesar los datos para la identificación de uno o más objetos, y recibe la identificación del objeto para compartir datos de imagen. Los detalles del procesamiento de los datos de imagen usando un servidor se analizan adicionalmente en la FIG.
12. De forma alternativa, el dispositivo puede usar datos almacenados localmente de una base de datos local para identificar un objeto. En un modo de realización, el dispositivo accede a una base de datos interna almacenada en el dispositivo antes de acceder a una base de datos externa que pertenece a un recurso de red para identificar al menos un objeto. En otros modos de realización, la base de datos interna es un subconjunto de la base de datos externa. Por ejemplo, la base de datos interna puede implementarse como una memoria caché que almacena la información a la que se accedió más recientemente.
[0084] El dispositivo accede a información de identificación sobre uno o más objetos de interés visibles para la cámara. En un aspecto, la identificación de al menos un objeto puede incluir generar una representación de una parte de la imagen asociada con el objeto utilizando algunos o todos los datos visibles para la cámara y comparar la representación de una parte de la imagen con una representación de un objeto de referencia almacenado en una base de datos. En algunos casos, el objeto de interés es una persona y se utilizan técnicas de reconocimiento facial para identificar una parte de la imagen asociada con al menos un objeto que comprende una cara de la persona. Se pueden utilizar técnicas de reconocimiento facial conocidas como el análisis de componentes principales, el análisis de discriminación lineal, la coincidencia de gráficos elásticos en racimo o cualquier otra técnica adecuada para el reconocimiento facial.
[0085] Las caras de las personas en el campo de visión se pueden comparar con las caras de las imágenes almacenadas localmente en el dispositivo. Además, el dispositivo se puede conectar a recursos de red mediante una conexión inalámbrica como WiFi, Wimax, LTE, CDMA, conexión GSM o cualquier otro medio adecuado. En algunos casos, el dispositivo también puede conectarse a recursos de red a través de una conexión por cable. El dispositivo puede tener acceso a la información de identificación en el campo de visión de la cámara utilizando una red social accesible a través de los recursos de la red. El dcvicc puede usar las relaciones del usuario y/o la confianza digital establecida y accesible a través de la red social del usuario. Por ejemplo, el dispositivo puede acceder a las redes sociales del usuario y facilitar la correspondencia de las representaciones obtenidas de la imagen con las representaciones de las imágenes de referencia de redes sociales como Facebook® y LinkedIn®.
[0086] Una red social o grupo social puede definirse como un servicio, plataforma o sitio en línea que se centra en facilitar la construcción de redes sociales o relaciones sociales entre personas que, por ejemplo, comparten intereses, actividades, antecedentes o conexiones de la vida real. Un servicio de red social puede consistir en una representación de cada usuario (a menudo un perfil), sus enlaces sociales y una variedad de servicios adicionales. La mayoría de los servicios de redes sociales están basados en la web y proporcionan medios para que los usuarios interactúen a través de Internet, como el correo electrónico y la mensajería instantánea.
[0087] Los aspectos del uso de un servidor remoto para la identificación del objeto se analizan adicionalmente con referencia a la FIG. 12. El reconocimiento facial puede no estar limitado a las personas y puede incluir el reconocimiento facial para animales. Por ejemplo, los sitios web de redes sociales tienen cuentas dedicadas a mascotas. Por lo tanto, la identificación de las características faciales para el reconocimiento facial puede incluir características faciales y otras características de los animales.
[0088] Como se analizó anteriormente, el dispositivo puede usar un sistema jerárquico para identificar eficientemente objetos en el campo de visión de la lente de la cámara comparándolos con las imágenes almacenadas. Por ejemplo, si el hermano del usuario entra en el campo de visión, el dispositivo móvil puede tener una imagen almacenada del hermano del usuario en cualquiera de los medios de almacenamiento locales, una memoria caché o memoria. El dispositivo puede cargarse con los objetos de interés más relevantes para el usuario mediante el dispositivo. Por otro lado, puede haber situaciones en las que un amigo de la escuela secundaria poco visitado que solo está conectado al usuario a través de Facebook® aparece frente a la lente de la cámara. En tal escenario, el dispositivo puede buscar el almacenamiento local, la memoria caché y la memoria y puede no identificar a la persona que usa los recursos locales. El dispositivo móvil puede conectarse a una red social utilizando los recursos de la red para identificar la cara comparándola con la red social del usuario. En este caso, el dispositivo facilitará la búsqueda del amigo del usuario a través de sus conexiones en Facebook®.
[0089] En otro modo de realización, la identificación del objeto puede incluir acceder a al menos una característica asociada con el al menos un objeto, y determinar la identificación del al menos un objeto basándose en la al menos una característica asociada con el al menos un objeto. Por ejemplo, durante un partido de fútbol, el dispositivo móvil puede identificar un balón de fútbol y rastrear el balón de fútbol en el campo basándose en las dimensiones y características del balón de fútbol o haciendo coincidir parcialmente el balón de fútbol con una imagen almacenada.
[0090] Una vez que se identifican uno o más objetos en el campo de visión de la lente de la cámara, el dispositivo puede proporcionar una interfaz de usuario para que el usuario seleccione, rechace o modifique los objetos identificados. La interfaz de usuario puede implicar proporcionar una interfaz para el usuario utilizando una unidad de visualización acoplada al dispositivo móvil. La unidad de visualización podría ser una entrada sensorial capacitiva, como una "pantalla táctil". En un modo de realización, el dispositivo móvil puede resaltar los objetos identificados dibujando cuadros o círculos alrededor de los objetos identificados o mediante cualquier otro medio adecuado. En una implementación, además de identificar los objetos, el dispositivo móvil también puede etiquetar los objetos en el campo de visión de la cámara. En una implementación, la unidad de visualización puede mostrar una representación del área total visible para la lente. Además, el dispositivo puede resaltar los objetos de interés para el usuario dentro del área encuadrada. Por ejemplo, el usuario puede dibujar un cuadro o cualquier forma adecuada alrededor del objeto de interés o simplemente seleccionar el objeto identificado y/o etiquetado. Si los objetos están etiquetados, el usuario también puede seleccionar verbalmente la etiqueta. Por ejemplo, el usuario puede dar al dispositivo móvil un comando verbal para "seleccionar a Tom", donde Tom es una de las etiquetas para los objetos etiquetados que se muestran en la unidad de visualización.
[0091] Refiriéndose nuevamente al flujo a modo de ejemplo de la FIG. 11, en el bloque 1106, el dispositivo accede a atributos compartidos asociados con al menos un objeto identificado en la imagen. Los atributos compartidos pueden obtenerse de forma remota utilizando recursos de red, utilizando localmente los recursos del dispositivo o cualquier combinación de los mismos. Los atributos compartidos pueden obtenerse usando una o más características del objeto. Por ejemplo, las imágenes con una estructura de edificio pueden etiquetarse con un atributo compartido de "arquitectura" o "edificios" y las imágenes con flores pueden etiquetarse con un atributo compartido de "flores". Los atributos compartidos pueden estar en diferentes granularidades y ser configurables por el usuario. Por ejemplo, el usuario puede tener la capacidad de ajustar los atributos compartidos de los edificios para tener más en cuenta los edificios de ladrillos en lugar de los edificios de piedra. Además, una imagen puede tener varios objetos y cada objeto puede tener varios atributos.
[0092] En algunos modos de realización, los atributos compartidos se asignan a los objetos basándose en las personas presentes en la imagen. El objeto como se analizó anteriormente puede ser un sujeto/persona. La cara de la persona puede reconocerse usando el reconocimiento facial en el bloque 1104. Como ejemplo, para una imagen con la fotografía de la madre, el objeto puede tener atributos compartidos como "familia" y "madre". Del mismo modo, los amigos pueden identificarse y asociarse con los atributos compartidos como "amigos". Los atributos compartidos también pueden obtenerse utilizando un historial de asociación de objetos similares para los objetos identificados. Por ejemplo, si el dispositivo detecta que el usuario siempre asocia/agrupa a un amigo muy cercano con su familia, entonces el dispositivo puede comenzar a asociar a ese amigo con un atributo de compartir como "familia".
[0093] En el bloque 1108, los atributos compartidos se asocian automáticamente con la imagen. En un modo de realización, en el bloque 1106, los atributos compartidos están asociados individualmente con el objeto y pueden no estar relacionados entre sí con los atributos compartidos de otros objetos o atributos de la imagen misma. En un modo de realización, se pueden combinar numerosos atributos compartidos de los diferentes objetos y atributos de imagen para generar un número menor de atributos compartidos. En algunos modos de realización, los atributos compartidos asociados con la imagen están más estrechamente alineados con las agrupaciones de fotografías creadas para cuentas como Facebook®, Twitter® y Google Plus® por el usuario.
[0094] Los modos de realización de la invención pueden usar la relación entre el objeto diferente y los objetos y los atributos de la imagen para refinar los atributos compartidos para la imagen. Esto puede incluir tener en cuenta el contexto de la fotografía al determinar los atributos compartidos. Por ejemplo, para todas las fotografías tomadas durante el fin de semana del 4 de julio de 2012 en París para una pareja, el dispositivo móvil o el servidor pueden asociar automáticamente un atributo compartido que representa "fin de semana del 4 de julio de 2012, París" con una pluralidad de imágenes. El atributo compartido para la imagen puede ser el resultado de tener en cuenta la fecha, la hora y la ubicación donde se capturó la imagen. Además, se pueden usar objetos en la imagen, como el reconocimiento facial de la pareja y la Torre Eiffel en el fondo. La ubicación puede detectarse al inferir la ubicación de objetos como la Torre Eiffel en el fondo o mediante el uso de indicadores de ubicación de un satélite GPS o una torre celular local.
[0095] Los atributos compartidos también pueden incluir políticas y preferencias para compartir asociadas con cada objeto identificado en la imagen. Por ejemplo, si se identifica a una persona en la imagen, se le puede otorgar automáticamente derechos de acceso o permiso para acceder a la imagen cuando la imagen se carga en la red como parte de una red social o de otra manera. Por otro lado, el usuario también puede tener políticas para compartir, donde, si la imagen tiene mamá, el usuario puede restringir que la fotografía se comparta en agrupaciones con amigos.
[0096] Los modos de realización también pueden emplear las relaciones del usuario y/o la confianza digital establecida y accesible a través del grupo social o red del usuario para formar los atributos compartidos. En algunas implementaciones, la confianza es transitiva e incluye otorgar automáticamente a una segunda persona derechos de acceso a la imagen basándose en una confianza transitiva establecida entre la primera persona y la segunda persona utilizando una primera relación de confianza entre la primera persona y un usuario del dispositivo y una segunda relación de confianza entre la segunda persona y el usuario del dispositivo. Por ejemplo, si la persona identificada en la imagen es el padre del usuario del dispositivo, entonces los modos de realización de la imagen pueden otorgar al abuelo del usuario del dispositivo derechos de acceso a la imagen.
[0097] De manera similar, los modos de realización de la invención pueden usar la pertenencia a grupos para otorgar derechos de acceso a una imagen. Por ejemplo, si más de un cierto número de personas identificadas en la imagen pertenecen a un grupo particular en una red social 408, entonces los modos de realización de la invención pueden otorgar a otros miembros que pertenecen al mismo grupo acceso a la imagen. Por ejemplo, si el usuario tenía un círculo de Google para miembros de la familia y si la mayoría de las personas identificadas en la imagen son miembros de la familia, los modos de realización del dispositivo pueden compartir u otorgar a todos los miembros de la familia el derecho de acceso del círculo de Google a la imagen.
[0098] En el bloque 1110, se genera información para compartir la imagen basándose en los atributos compartidos. En un modo de realización, se genera información asociando la imagen con una o más redes sociales 408, grupos o círculos basándose en los atributos compartidos de la imagen. En otro modo de realización, se genera información asociando la imagen con una agrupación de objetos almacenados localmente o en un servidor como parte de la red 404. La información de imagen también puede incluir información de identificación del bloque 1104 y atributos compartidos del bloque 1106 y 1108.
[0099] En algunas implementaciones, los atributos de identificación y compartidos de la imagen pueden almacenarse con la imagen como metadatos. En el bloque 1112, en el dispositivo, la información generada puede mostrarse al usuario en la unidad de visualización del dispositivo de salida 120 de la FIG. 1. Por ejemplo, la imagen puede mostrarse con anotaciones que incluyen la información de identificación y el intercambio de atributos para el objeto o la imagen como un todo. Además, el dispositivo puede proporcionar al usuario recomendaciones para cargar la imagen a una o más redes sociales 408 o agrupaciones en línea. Por ejemplo, para fotografías con colegas en una fiesta de oficina, el dispositivo puede recomendar cargar las fotografías en una red social profesional 408 como LinkedIn®. Mientras que, para las fotografías de una fiesta de reunión de la escuela secundaria, el dispositivo puede recomendar cargar las fotografías a una red social 408 como Facebook® o un círculo dedicado a amigos de la escuela secundaria en una red social 408 como Google Plus®.
[0100] Debería apreciarse que los pasos específicos ilustrados en la FIG. 11 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 11 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 1100.
[0101] La FIG. 12 es un diagrama de flujo simplificado, que ilustra un procedimiento 1200 para acceder y compartir datos de imágenes. El procedimiento 1200 se realiza mediante lógica de procesamiento que comprende hardware (circuitos, lógica dedicada, etc.), software (tal como se ejecuta en un sistema informático de propósito general o una máquina dedicada), firmware (software incorporado), o cualquier combinación de los mismos. En un modo de realización, el procedimiento 1200 se realiza mediante un dispositivo 100 de la FIG. 1 que representa un servidor 410 en la FIG. 4.
[0102] Con referencia a lo excesivamente simplificado y a modo de ejemplo de la FIG. 4 nuevamente, el servidor 410 puede ser accesible mediante un dispositivo 402 (también dispositivo 100 de la FIG. 1) tal como un dispositivo móvil, dispositivo de cámara o cualquier otro dispositivo con acceso a la red 404 a través de los recursos de red. El dispositivo analizado con referencia a la FIG. 11 puede representar dicho dispositivo 402. Los recursos de red también pueden denominarse "nube".
[0103] En una implementación, en el bloque 1202, el servidor puede recibir los datos de imagen de un dispositivo 402 y almacenarlos localmente antes de procesar (usando el procesador 110 de la FIG. 1) los datos de imagen antes de continuar con el bloque 1204. Los datos de la imagen pueden ser una parte de la imagen, o una representación de la imagen con una resolución y un tamaño de archivo mucho más bajos para su identificación antes de recibir la imagen final para compartir. El uso de una representación de la imagen con un tamaño más pequeño que la imagen final tiene la ventaja de acelerar potencialmente el proceso de detección de los individuos en las fotografías usando un ancho de banda menor. Opcionalmente, la cámara 150 también puede recortar la imagen para reducir el tamaño del archivo antes de enviar los datos de la imagen al servidor para su posterior procesamiento. En un modo de realización, la imagen se recorta recortando casi toda la información de píxeles en el área que rodea los objetos o caras de las personas en la fotografía para reducir el tamaño del archivo. En otro modo de realización, cada objeto o cara se detecta y se recorta en un archivo de imagen separado para reducir aún más el tamaño total de los archivos que representan las caras. En dicha implementación, el servidor puede realizar la identificación (bloque 1206), la generación de atributos compartidos (1208 y 1210) y la generación de información compartida (bloque 1212) utilizando los datos de imagen que comprenden la fotografía de baja resolución o la representación parcial. Sin embargo, el intercambio real de la imagen (bloque 1214) puede ocurrir usando una imagen final con una fotografía de mayor resolución obtenida del dispositivo 402. El servidor puede recibir los datos de la imagen directamente desde el dispositivo 402 obteniendo la fotografía o mediante otro dispositivo, como un ordenador, una base de datos o cualquier otra fuente.
[0104] En el bloque 1204, el servidor puede acceder a los datos de la imagen en una imagen en el servidor. Después de recibir los datos de imagen adquiridos por el dispositivo 402/100 usando la cámara 150, el servidor puede almacenar los datos de imagen temporalmente en la memoria de trabajo o en un dispositivo de almacenamiento para acceder y procesar los datos mediante el servidor. En el bloque 1206, el servidor puede acceder a la identificación de uno o más objetos obtenidos procesando los datos de imagen de la imagen. Para identificar los objetos, el servidor puede tener acceso a una base de datos local o a una o más bases de datos remotas 406. Además de las bases de datos, el servidor puede tener acceso a las cuentas del usuario en sitios web como Facebook®, LinkedIn®, Google Plus® y cualquier otro sitio web que pueda almacenar información como imágenes para el usuario. En una implementación, el servidor puede identificar los objetos de la imagen comparando una representación del objeto de la imagen con una representación de un objeto de referencia almacenado en la base de datos. En otra implementación, el servidor puede acceder a las características asociadas con el objeto y determinar la identidad del objeto basándose en las características del objeto. El objeto puede ser una persona, en el que las técnicas de reconocimiento facial pueden usarse para identificar a la persona. Como se analizó brevemente antes, la identificación del objeto puede realizarse usando una representación de baja resolución del objeto. En algunos modos de realización, los componentes del servidor se implementan usando componentes similares a la FIG. 1.
[0105] En el bloque 1208, el servidor puede generar y acceder a atributos compartidos para los objetos de la imagen. Como se describe en referencia a 1106, el servidor puede generar los atributos compartidos basados en un historial de asociación de objetos similares, características de los objetos y reconocimiento facial de las personas en la imagen. En el bloque 1210, el servidor puede asociar automáticamente la imagen con los atributos compartidos. El servidor también puede refinar aún más los atributos compartidos mediante el uso de otra información contextual sobre la imagen, como la fecha, la hora y la ubicación donde se capturó la imagen.
[0106] En el bloque 1212, el servidor puede generar información para compartir la imagen basándose en los atributos compartidos. En un caso, el servidor puede usar los atributos compartidos asociados con una imagen y comparar los atributos compartidos con una pluralidad de agrupaciones diferentes con las que el usuario puede estar asociado. Por ejemplo, el usuario puede tener Twitter®, Google®, LinkedIn®, Facebook® y MySpace®, flicker® y muchas otras cuentas similares que almacenan y permiten compartir fotografías para los usuarios y otra información. Cada cuenta puede estar relacionada con diferentes intereses personales para el usuario. Por ejemplo, el usuario puede usar LinkedIn® para contactos profesionales, MySpace® para afiliaciones musicales y Facebook® para amigos de la escuela secundaria. Algunas agrupaciones pueden tener otras subcategorías, como álbumes, círculos, etc. El servidor puede tener permisos para acceder a estas agrupaciones o redes sociales en nombre del usuario con el fin de encontrar las recomendaciones más apropiadas para que el usuario asocie fotografías con las mismas. El servidor puede incluir los atributos de identificación y los atributos compartidos para la imagen en la información generada. En el bloque 1214, el servidor puede compartir la imagen con una o más agrupaciones basándose en la información generada.
[0107] En un modo de realización, el servidor recibe la imagen o los datos de imagen de un dispositivo 402 (también 100 de la FIG. 1) con una cámara 150 acoplada al dispositivo 402 en el bloque 1202. El servidor ejecuta modos de realización de la invención como se describe con referencia a la FIG. 12. El servidor genera la información que puede incluir las diferentes agrupaciones con las que asociar la imagen, los atributos de identificación y los atributos compartidos. El servidor puede incluir esta información como metadatos para la imagen. El servidor puede enviar la imagen y la información asociada con la imagen, como los metadatos, al dispositivo utilizado por el usuario. El dispositivo 402 puede mostrar y anotar la imagen con información de identificación y atributos compartidos. El dispositivo también puede mostrar las diferentes recomendaciones de agrupación para asociar la imagen con el usuario. El usuario puede confirmar una de las recomendaciones proporcionadas o elegir una nueva agrupación para asociar la imagen. El dispositivo 402 puede transmitir la decisión del usuario al servidor o directamente a la red que aloja la agrupación para compartir la imagen. En el bloque 1214, en un modo de realización, el servidor puede compartir directamente la imagen con la agrupación apropiada sin autorización adicional del usuario.
[0108] En otro modo de realización, el dispositivo 402 comienza el proceso de identificación antes de la captura real de la imagen usando el procesador 110 de la FIG. 1. Esto tiene la ventaja de acelerar potencialmente el proceso de detección de las personas en las fotografías. El dispositivo 402 detecta una o más caras en la trama del campo de visión de la lente del dispositivo 402. El dispositivo 402 adquiere una trama de la imagen. En un modo de realización, la trama de la imagen real es una representación parcial de la imagen. La representación parcial de la imagen tiene suficiente información de píxeles para iniciar el proceso de identificación antes de tomar la fotografía real. Opcionalmente, el dispositivo 402 también puede recortar la imagen para reducir el tamaño del archivo antes de enviar la imagen a la nube para su posterior procesamiento. En un modo de realización, la imagen se recorta recortando casi toda la información de píxeles en el área que rodea las caras de las personas en la fotografía para reducir el tamaño del archivo. En otro modo de realización, cada cara se detecta y se recorta en un archivo de imagen separado para reducir aún más el tamaño total de los archivos que representan las caras.
[0109] Una vez que los archivos están preparados, el dispositivo 402 envía los archivos que contienen las imágenes de la cara a un servidor en la nube. El servidor identifica las caras y devuelve los resultados al dispositivo. Si alguna cara nueva entra en el campo de visión de la cámara, el dispositivo repite el procedimiento de identificar la cara solo para esa nueva persona. A medida que las personas entran y salen del campo de visión, la cámara también crea una base de datos temporal de las imágenes y los datos de anotación asociados. Por ejemplo, si una persona abandona el campo de visión y vuelve a entrar al campo de visión de la lente del dispositivo, el dispositivo no necesita consultar el reconocimiento de la cara desde la nube. En cambio, el dispositivo usa su base de datos local para anotar la imagen. En algunos modos de realización, el dispositivo también puede construir una base de datos local o remota permanente con las caras más consultadas antes de consultar una red de terceros. Esto podría permitir un reconocimiento más rápido por parte de la cámara de rostros para personas fotografiadas con frecuencia, como familiares cercanos y amigos. Estos modos de realización para identificar caras usan bases de datos locales y remotas que pueden usarse junto con otros modos como el rastreo analizado anteriormente. Una vez que se identifican las caras, la fotografía capturada se puede presentar al usuario con las anotaciones.
[0110] Debería apreciarse que los pasos específicos ilustrados en la FIG. 12 proporcionan un procedimiento particular de conmutación entre modalidades de funcionamiento, de acuerdo con un modo de realización de la presente invención. También se pueden realizar otras secuencias de pasos, en consecuencia, en modos de realización alternativos. Por ejemplo, los modos de realización alternativos de la presente invención pueden realizar los pasos descritos anteriormente en un orden diferente. Para ilustrar, un usuario puede elegir cambiar desde la tercera modalidad de funcionamiento a la primera modalidad de funcionamiento, desde la cuarta modalidad a la segunda modalidad, o cualquier combinación intermedia. Además, los pasos individuales ilustradas en la FIG. 12 pueden incluir múltiples subpasos que se pueden realizar en varias secuencias, según lo adecuado para cada paso individual. Además, se pueden agregar o eliminar pasos adicionales dependiendo de las aplicaciones particulares. Una persona medianamente experta en la técnica reconocería y apreciaría muchas variaciones, modificaciones y alternativas del procedimiento 1200.
[0111] Los modos de realización de la invención ejecutados por los componentes del dispositivo pueden combinar características descritas en varios diagramas de flujo descritos en el presente documento. Por ejemplo, en una implementación a modo de ejemplo, el dispositivo puede rastrear el objeto como se describe en la FIG. 3 y compartir los datos de la imagen, incluido el objeto, usando las características de la FIG. 11 o la FIG. 12, o cualquier combinación de los mismos.

Claims (15)

REIVINDICACIONES
1. Un procedimiento para compartir una imagen final utilizando un dispositivo, en el que el procedimiento es realizado por un servidor y comprende:
recibir (1202) datos de imagen del dispositivo en el servidor utilizando recursos de red, en el que los datos de imagen son una representación de la imagen final con menor resolución y tamaño de archivo en comparación con la imagen final correspondiente para compartir;
acceder (1204) a los datos de la imagen;
acceder (1206) a la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de la imagen, en el que el proceso de identificación se inicia antes de la captura real de la imagen final por el dispositivo;
acceder a (1208) atributos compartidos asociados con el al menos un objeto en la imagen final basándose en la identificación del objeto en la imagen final, en el que los atributos compartidos indican con quién se debe compartir la imagen final;
asociar automáticamente (1210) la imagen final con atributos compartidos basándose en la identificación de al menos un objeto;
generar (1212) información para compartir la imagen final basándose en los atributos compartidos; y enviar (1214) información para compartir la imagen final basándose en los atributos compartidos del servidor.
2. El procedimiento según la reivindicación 1, en el que la identificación del al menos un objeto comprende: generar una primera representación de al menos una parte de la imagen final asociada con el al menos un objeto usando algunos o todos los datos de la imagen; y
comparar la primera representación con una segunda representación de un objeto de referencia almacenado en una base de datos.
3. El procedimiento según la reivindicación 1, en el que la identificación del al menos un objeto comprende: acceder al menos a una característica asociada con al menos un objeto; y
determinar la identificación del al menos un objeto basándose en la al menos una característica asociada con el al menos un objeto.
4. El procedimiento según la reivindicación 2, en el que el al menos un objeto es una persona y en el que se usa el reconocimiento facial para identificar la parte de la imagen final asociada con el al menos un objeto que comprende una cara de la persona.
5. El procedimiento según la reivindicación 2, en el que la base de datos es una de una base de datos interna almacenada en el dispositivo utilizado para compartir fotografías o una base de datos externa que pertenece a un recurso de red.
6. El procedimiento según la reivindicación 1, que comprende además asociar la imagen final con una red social basada en los atributos compartidos de la imagen final, y/o comprende además asociar la imagen final con una agrupación de objetos dentro de una red social basada en los atributos compartidos de la imagen final.
7. El procedimiento según la reivindicación 1, en el que los atributos compartidos se obtienen usando una o más de una ubicación en la que se capturó la imagen final, un tiempo en el que se capturó la imagen final, un historial de asociación de objetos similares para al menos un objeto identificado, una característica del al menos un objeto y reconocimiento facial de personas en la imagen final, una relación del usuario del dispositivo con una agrupación de objetos dentro de una red social y una confianza digital entre el usuario del dispositivo y la agrupación de objetos dentro de la red social.
8. El procedimiento según la reivindicación 1, en el que el al menos un objeto es una primera persona.
9. El procedimiento según la reivindicación 8, que comprende además otorgar automáticamente derechos de acceso a la primera persona identificada en la imagen final usando recursos de red.
10. El procedimiento según la reivindicación 8, que comprende además otorgar automáticamente derechos de acceso a una segunda persona a la imagen final usando los recursos de red basados en una confianza transitiva establecida entre la primera persona y la segunda persona usando una primera relación de confianza entre la primera persona y un usuario del dispositivo y una segunda relación de confianza entre la segunda persona y el usuario del dispositivo.
11. El procedimiento según la reivindicación 8, que comprende además otorgar automáticamente derechos de acceso a un grupo de personas a la imagen final utilizando los recursos de red basados en una asociación de la primera persona con el grupo de personas.
12. El procedimiento según la reivindicación 1, en el que la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de imagen para la imagen final se produce en el dispositivo.
13. El procedimiento según la reivindicación 1, que comprende además proporcionar a un usuario una interfaz de usuario configurada para resaltar al menos un objeto visualizado en una unidad de visualización del dispositivo, y que además comprende preferentemente recibir una entrada usando la interfaz de usuario para realizar una o más de seleccionar, rechazar o modificar el objeto resaltado, y/o que comprende además etiquetar el objeto resaltado con información identificable sobre al menos un objeto, y/o que comprende además proporcionar al usuario una lista que comprenda al menos una asociación basada en los atributos compartidos, y/o que comprende además proporcionar al usuario la interfaz de usuario para compartir la imagen final asociando la imagen final con otras agrupaciones de objetos basándose en los atributos compartidos de la imagen final utilizando recursos de red.
14. Un aparato para incluir en un servidor y para compartir una imagen final, en el que el aparato comprende:
medios para recibir datos de imagen desde un dispositivo en el aparato usando recursos de red, en el que los datos de imagen son una representación de la imagen final con menor resolución y tamaño de archivo en comparación con la imagen final correspondiente para compartir;
medios para acceder a los datos de la imagen;
medios para acceder a la identificación de al menos un objeto obtenido mediante el procesamiento de los datos de la imagen, en el que el proceso de identificación se inicia antes de la captura real de la imagen final por el dispositivo;
medios para acceder a los atributos compartidos asociados con el al menos un objeto en la imagen final basándose en la identificación del objeto en la imagen final, en el que los atributos compartidos indican con quién se debe compartir la imagen final;
medios para asociar automáticamente la imagen final con atributos compartidos basándose en la identificación de al menos un objeto;
medios para generar información para compartir la imagen final basándose en los atributos compartidos; y
medios para enviar información para compartir la imagen final basándose en los atributos compartidos del aparato.
15. Un programa informático que comprende instrucciones ejecutables por ordenador que, cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo los pasos del procedimiento de cualquiera de las reivindicaciones 1 a 13.
ES12754119T 2011-08-18 2012-08-01 Cámara inteligente para compartir fotografías automáticamente Active ES2820449T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161525148P 2011-08-18 2011-08-18
US13/563,149 US10089327B2 (en) 2011-08-18 2012-07-31 Smart camera for sharing pictures automatically
PCT/US2012/049220 WO2013025355A1 (en) 2011-08-18 2012-08-01 Smart camera for sharing pictures automatically

Publications (1)

Publication Number Publication Date
ES2820449T3 true ES2820449T3 (es) 2021-04-21

Family

ID=46796720

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12754119T Active ES2820449T3 (es) 2011-08-18 2012-08-01 Cámara inteligente para compartir fotografías automáticamente

Country Status (7)

Country Link
US (2) US10089327B2 (es)
EP (2) EP3748537A1 (es)
JP (1) JP5795687B2 (es)
KR (1) KR101657635B1 (es)
CN (2) CN110084153B (es)
ES (1) ES2820449T3 (es)
WO (1) WO2013025355A1 (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349147B2 (en) * 2011-11-01 2016-05-24 Google Inc. Displaying content items related to a social network group on a map
JP2013191035A (ja) * 2012-03-14 2013-09-26 Fujifilm Corp 画像公開装置、画像公開方法、画像公開システム、および、プログラム
US8913142B2 (en) * 2012-04-18 2014-12-16 Sony Corporation Context aware input system for focus control
US9179021B2 (en) * 2012-04-25 2015-11-03 Microsoft Technology Licensing, Llc Proximity and connection based photo sharing
US8798401B1 (en) * 2012-06-15 2014-08-05 Shutterfly, Inc. Image sharing with facial recognition models
US9330301B1 (en) 2012-11-21 2016-05-03 Ozog Media, LLC System, method, and computer program product for performing processing based on object recognition
US9336435B1 (en) 2012-11-21 2016-05-10 Ozog Media, LLC System, method, and computer program product for performing processing based on object recognition
US9294539B2 (en) 2013-03-14 2016-03-22 Microsoft Technology Licensing, Llc Cooperative federation of digital devices via proxemics and device micro-mobility
GB2533504A (en) 2013-08-02 2016-06-22 Shoto Inc Discovery and sharing of photos between devices
JP6245886B2 (ja) * 2013-08-08 2017-12-13 キヤノン株式会社 画像撮像方法及び画像撮像装置
CN105659286B (zh) * 2013-09-18 2021-09-28 英特尔公司 自动化图像裁剪和分享
US10824666B2 (en) * 2013-10-10 2020-11-03 Aura Home, Inc. Automated routing and display of community photographs in digital picture frames
US11669562B2 (en) 2013-10-10 2023-06-06 Aura Home, Inc. Method of clustering photos for digital picture frames with split screen display
US20200089702A1 (en) 2013-10-10 2020-03-19 Pushd, Inc. Digital picture frames and methods of photo sharing
US20150134661A1 (en) * 2013-11-14 2015-05-14 Apple Inc. Multi-Source Media Aggregation
US9582160B2 (en) 2013-11-14 2017-02-28 Apple Inc. Semi-automatic organic layout for media streams
US9489104B2 (en) 2013-11-14 2016-11-08 Apple Inc. Viewable frame identification
EP3084715A4 (en) * 2013-12-20 2017-09-27 Intel Corporation Social circle and relationship identification
US9509648B2 (en) 2014-04-11 2016-11-29 International Business Machines Corporation Associating sentiment with objects presented via social media
US20150319217A1 (en) * 2014-04-30 2015-11-05 Motorola Mobility Llc Sharing Visual Media
CN104038717B (zh) * 2014-06-26 2017-11-24 北京小鱼在家科技有限公司 一种智能录制系统
KR102226820B1 (ko) * 2014-08-20 2021-03-11 삼성전자주식회사 데이터 공유 방법 및 그 전자 장치
US10943111B2 (en) 2014-09-29 2021-03-09 Sony Interactive Entertainment Inc. Method and apparatus for recognition and matching of objects depicted in images
US9781228B2 (en) * 2014-12-23 2017-10-03 Palo Alto Research Center Incorporated Computer-implemented system and method for providing contextual media tagging for selective media exposure
US11334228B1 (en) * 2015-03-30 2022-05-17 Evernote Corporation Dynamic targeting of preferred objects in video stream of smartphone camera
US10778855B2 (en) 2015-06-19 2020-09-15 Line Corporation System and method for creating contents by collaborating between users
KR102638612B1 (ko) 2015-07-15 2024-02-21 15 세컨즈 오브 페임, 인크. 맥락형 비디오 스트림들에서 개인들을 식별하기 위한 얼굴 인식 및 비디오 분석을 위한 장치 및 방법들
US9672445B2 (en) * 2015-08-03 2017-06-06 Yahoo! Inc. Computerized method and system for automated determination of high quality digital content
US10863003B2 (en) * 2015-09-10 2020-12-08 Elliot Berookhim Methods, devices, and systems for determining a subset for autonomous sharing of digital media
US10063751B2 (en) * 2015-09-24 2018-08-28 Qualcomm Incorporated System and method for accessing images with a captured query image
WO2017070519A1 (en) 2015-10-21 2017-04-27 15 Seconds of Fame, Inc. Methods and apparatus for false positive minimization in facial recognition applications
US10178293B2 (en) * 2016-06-22 2019-01-08 International Business Machines Corporation Controlling a camera using a voice command and image recognition
CN106161628B (zh) * 2016-07-13 2020-12-01 腾讯科技(深圳)有限公司 拍摄文件上传方法及装置
US9986152B2 (en) 2016-08-02 2018-05-29 International Business Machines Corporation Intelligently capturing digital images based on user preferences
US10460171B2 (en) * 2016-08-31 2019-10-29 Facebook, Inc. Systems and methods for processing media content that depict objects
US10244161B2 (en) * 2017-01-13 2019-03-26 Microsoft Technology Licensing, Llc Capturing and viewing private photos and videos
CN108259315A (zh) * 2017-01-16 2018-07-06 广州市动景计算机科技有限公司 在线图片分享方法、设备、客户端及电子设备
US10740388B2 (en) 2017-01-24 2020-08-11 Microsoft Technology Licensing, Llc Linked capture session for automatic image sharing
JP6729793B2 (ja) * 2017-03-30 2020-07-22 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US10394881B2 (en) 2017-03-31 2019-08-27 Google Llc Automatic suggestions to share images
WO2018195708A1 (zh) * 2017-04-24 2018-11-01 华为技术有限公司 分享图像的方法及电子设备
US10382372B1 (en) 2017-04-27 2019-08-13 Snap Inc. Processing media content based on original context
KR102422448B1 (ko) * 2017-11-21 2022-07-19 삼성전자 주식회사 이미지와 관련된 링크 정보를 이용하여 외부 전자 장치와 이미지를 공유하는 방법 및 전자 장치
CN110661693A (zh) * 2018-06-28 2020-01-07 连株式会社 促进在计算装置中执行的基于媒体的内容共享的方法、计算装置可读存储介质以及计算装置
US10936856B2 (en) 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
US11244162B2 (en) * 2018-10-31 2022-02-08 International Business Machines Corporation Automatic identification of relationships between a center of attention and other individuals/objects present in an image or video
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
CN110110604A (zh) * 2019-04-10 2019-08-09 东软集团股份有限公司 目标对象检测方法、装置、可读存储介质及电子设备
CN112351133B (zh) * 2019-08-07 2022-02-25 华为技术有限公司 媒体数据的分享方法及终端
JP7423954B2 (ja) * 2019-09-20 2024-01-30 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US10963588B1 (en) 2019-10-30 2021-03-30 International Business Machines Corporation Analyzing recordings for data to be protected and identifying recipients and alerts
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device
CN111522990A (zh) * 2020-04-24 2020-08-11 英华达(上海)科技有限公司 群组分享式摄影方法、拍摄设备、电子设备、存储介质
US11856256B1 (en) * 2022-03-30 2023-12-26 Amazon Technologies, Inc. Presence-detection modes for display devices
CN118057280A (zh) * 2022-11-21 2024-05-21 Oppo广东移动通信有限公司 合拍图像分享方法、装置、终端设备、存储介质及产品

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100276681B1 (ko) 1992-11-07 2001-01-15 이데이 노부유끼 비디오 카메라 시스템
JP3737578B2 (ja) 1996-11-06 2006-01-18 株式会社リコー 媒体文書管理システムおよび媒体文書管理方法
US7088865B2 (en) 1998-11-20 2006-08-08 Nikon Corporation Image processing apparatus having image selection function, and recording medium having image selection function program
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
GB2373942A (en) 2001-03-28 2002-10-02 Hewlett Packard Co Camera records images only when a tag is present
US20020167537A1 (en) 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera
US20040243671A9 (en) * 2001-07-26 2004-12-02 Needham Bradford H. Method and system for image sharing based on faces in an image
US7058209B2 (en) 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
CA2359269A1 (en) 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
KR100421221B1 (ko) 2001-11-05 2004-03-02 삼성전자주식회사 조명에 강인한 객체 추적 방법 및 이를 응용한 영상 편집장치
US20070201694A1 (en) 2002-06-18 2007-08-30 Bolle Rudolf M Privacy management in imaging system
KR100455294B1 (ko) 2002-12-06 2004-11-06 삼성전자주식회사 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치
JP4546956B2 (ja) 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
JP4082318B2 (ja) 2003-09-04 2008-04-30 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
US7373109B2 (en) * 2003-11-04 2008-05-13 Nokia Corporation System and method for registering attendance of entities associated with content creation
US20050129324A1 (en) 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
TWI253292B (en) 2004-03-23 2006-04-11 Yu-Lin Chiang Pano camera monitoring and tracking system and method thereof
IL161082A (en) 2004-03-25 2008-08-07 Rafael Advanced Defense Sys System and method for automatically acquiring a target with a narrow field-of-view gimbaled imaging sensor
US20070268369A1 (en) 2004-04-28 2007-11-22 Chuo Electronics Co., Ltd. Automatic Imaging Method and Apparatus
TWI241127B (en) 2004-08-27 2005-10-01 Univ Nat Cheng Kung Image-capturing device and method for removing strangers
US7471334B1 (en) 2004-11-22 2008-12-30 Stenger Thomas A Wildlife-sensing digital camera with instant-on capability and picture management software
US7505607B2 (en) 2004-12-17 2009-03-17 Xerox Corporation Identifying objects tracked in images using active device
WO2006091869A2 (en) * 2005-02-25 2006-08-31 Youfinder Intellectual Property Licensing Limited Liability Company Automated indexing for distributing event photography
JP2007097090A (ja) * 2005-09-30 2007-04-12 Fujifilm Corp 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
EP1966728A1 (en) 2005-09-30 2008-09-10 Robert Bosch Gmbh Method and software program for searching image information
EP1793580B1 (en) 2005-12-05 2016-07-27 Microsoft Technology Licensing, LLC Camera for automatic image capture having plural capture modes with different capture triggers
US7774851B2 (en) 2005-12-22 2010-08-10 Scenera Technologies, Llc Methods, systems, and computer program products for protecting information on a user interface based on a viewability of the information
CN100563197C (zh) 2006-03-16 2009-11-25 腾讯科技(深圳)有限公司 一种图片共享系统和方法
US20070226169A1 (en) * 2006-03-23 2007-09-27 Microsoft Corporation Smart share technologies for automatically processing digital information
US7787664B2 (en) 2006-03-29 2010-08-31 Eastman Kodak Company Recomposing photographs from multiple frames
US7467222B2 (en) * 2006-05-12 2008-12-16 Shutterfly, Inc. Image ranking for imaging products and services
US8041076B1 (en) 2007-08-09 2011-10-18 Adobe Systems Incorporated Generation and usage of attractiveness scores
KR100840023B1 (ko) 2007-11-13 2008-06-20 (주)올라웍스 셀프 촬영 시 얼굴의 구도를 잡도록 도와주는 방법 및시스템
US20090144657A1 (en) * 2007-11-30 2009-06-04 Verizon Laboratories Inc. Method and system of sharing images captured by a mobile communication device
JP5111088B2 (ja) 2007-12-14 2012-12-26 三洋電機株式会社 撮像装置及び画像再生装置
CA2711143C (en) * 2007-12-31 2015-12-08 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
US20090175551A1 (en) 2008-01-04 2009-07-09 Sony Ericsson Mobile Communications Ab Intelligent image enhancement
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US20090280859A1 (en) * 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Automatic tagging of photos in mobile devices
US8036425B2 (en) 2008-06-26 2011-10-11 Billy Hou Neural network-controlled automatic tracking and recognizing system and method
US20090324098A1 (en) 2008-06-27 2009-12-31 Sony Ericsson Mobile Communications Ab Mobile phone with selective photographic system and method
EP2180655A1 (en) * 2008-10-27 2010-04-28 Thomson Licensing SA Method of transmission af a digital content stream and corresponding method of reception
JP5348682B2 (ja) 2008-11-17 2013-11-20 Necビッグローブ株式会社 画像管理装置、その制御方法及びプログラム
US8457366B2 (en) 2008-12-12 2013-06-04 At&T Intellectual Property I, L.P. System and method for matching faces
US8320617B2 (en) 2009-03-27 2012-11-27 Utc Fire & Security Americas Corporation, Inc. System, method and program product for camera-based discovery of social networks
US20110052012A1 (en) 2009-03-31 2011-03-03 Myspace Inc. Security and Monetization Through Facial Recognition in Social Networking Websites
US8392957B2 (en) 2009-05-01 2013-03-05 T-Mobile Usa, Inc. Automatic content tagging, such as tagging digital images via a wireless cellular network using metadata and facial recognition
JP2010287124A (ja) 2009-06-12 2010-12-24 Glory Ltd 生体照合システムおよび生体照合方法
US20110014932A1 (en) 2009-07-17 2011-01-20 Texas Instruments Incorporated Mobile Telephony Combining Voice and Ancillary Information
US20110013810A1 (en) * 2009-07-17 2011-01-20 Engstroem Jimmy System and method for automatic tagging of a digital image
JP2011040993A (ja) 2009-08-11 2011-02-24 Nikon Corp 被写体追尾プログラム、およびカメラ
KR101660271B1 (ko) 2009-08-21 2016-10-11 삼성전자주식회사 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법
US9912870B2 (en) * 2009-08-24 2018-03-06 Samsung Electronics Co., Ltd Method for transmitting image and image pickup apparatus applying the same
US8290999B2 (en) 2009-08-24 2012-10-16 Xerox Corporation Automatic update of online social networking sites
US20110066431A1 (en) 2009-09-15 2011-03-17 Mediatek Inc. Hand-held input apparatus and input method for inputting data to a remote receiving device
WO2011053374A1 (en) 2009-10-30 2011-05-05 Zoran Corporation Method and apparatus for image detection with undesired object removal
US20110103643A1 (en) 2009-11-02 2011-05-05 Kenneth Edward Salsman Imaging system with integrated image preprocessing capabilities
US8786415B2 (en) 2010-02-24 2014-07-22 Sportvision, Inc. Tracking system using proximity and/or presence
US20110227810A1 (en) 2010-03-19 2011-09-22 Mckinney Susan Portable communication device with secondary peripheral display
CN101826157B (zh) 2010-04-28 2011-11-30 华中科技大学 一种地面静止目标实时识别跟踪方法
US20110273466A1 (en) 2010-05-10 2011-11-10 Canon Kabushiki Kaisha View-dependent rendering system with intuitive mixed reality
US8270684B2 (en) * 2010-07-27 2012-09-18 Google Inc. Automatic media sharing via shutter click
US8831294B2 (en) * 2011-06-17 2014-09-09 Microsoft Corporation Broadcast identifier enhanced facial recognition of images
US20120328202A1 (en) * 2011-06-21 2012-12-27 Cisco Technology, Inc. Method and apparatus for enrolling a user in a telepresence system using a face-recognition-based identification system
US9055276B2 (en) * 2011-07-29 2015-06-09 Apple Inc. Camera having processing customized for identified persons
US20130201344A1 (en) 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically

Also Published As

Publication number Publication date
EP2745238B1 (en) 2020-07-01
US20130194438A1 (en) 2013-08-01
CN110084153B (zh) 2023-04-18
JP2014525613A (ja) 2014-09-29
CN103797493B (zh) 2019-05-07
WO2013025355A1 (en) 2013-02-21
US10089327B2 (en) 2018-10-02
KR101657635B1 (ko) 2016-09-19
EP2745238A1 (en) 2014-06-25
US20190026312A1 (en) 2019-01-24
KR20140062069A (ko) 2014-05-22
CN110084153A (zh) 2019-08-02
CN103797493A (zh) 2014-05-14
EP3748537A1 (en) 2020-12-09
JP5795687B2 (ja) 2015-10-14

Similar Documents

Publication Publication Date Title
ES2820449T3 (es) Cámara inteligente para compartir fotografías automáticamente
US20130201344A1 (en) Smart camera for taking pictures automatically
KR102386398B1 (ko) 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
ES2794905T3 (es) Procedimiento de fotografía usando un dispositivo electrónico externo y dispositivo electrónico que soporta el mismo
KR102349428B1 (ko) 이미지 처리 방법 및 이를 지원하는 전자장치
US11249620B2 (en) Electronic device for playing-playing contents and method thereof
US20160357406A1 (en) Operating method for image and electronic device supporting the same
JP5525757B2 (ja) 画像処理装置、電子機器、及びプログラム
CN110674485B (zh) 针对数据捕获的动态控制
US20210209148A1 (en) Defining a collection of media content items for a relevant interest
US10318820B2 (en) Image processing to identify selected individuals in a field of view
CN105022802A (zh) 一种照片分类方法及终端
KR20230029946A (ko) 이미지들에 대한 여행 기반 증강 현실 콘텐츠
JPWO2011161851A1 (ja) コンテンツ管理装置、コンテンツ管理方法、コンテンツ管理プログラムおよび集積回路
WO2022037479A1 (zh) 一种拍摄方法和拍摄系统
KR102457247B1 (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20170098113A (ko) 전자 장치의 이미지 그룹 생성 방법 및 그 전자 장치
Ra et al. Do not capture: Automated obscurity for pervasive imaging
JP2017528014A (ja) ライフログカメラ、ianと関連付けられた制御の方法
KR20140088597A (ko) 객체 맥락적 정보의 분류 방지
KR102456155B1 (ko) 심리 상태를 바탕으로 휴양 정보를 제공하는 전자 장치의 제어 방법
JP5731033B2 (ja) 画像処理装置、電子機器、及びプログラム
JP4543157B2 (ja) テーブルトップコミュニティシステム