ES2793332T3 - Interconexión automática entre un dispositivo principal y un dispositivo objeto - Google Patents

Interconexión automática entre un dispositivo principal y un dispositivo objeto Download PDF

Info

Publication number
ES2793332T3
ES2793332T3 ES10735401T ES10735401T ES2793332T3 ES 2793332 T3 ES2793332 T3 ES 2793332T3 ES 10735401 T ES10735401 T ES 10735401T ES 10735401 T ES10735401 T ES 10735401T ES 2793332 T3 ES2793332 T3 ES 2793332T3
Authority
ES
Spain
Prior art keywords
target device
main
target
main device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10735401T
Other languages
English (en)
Inventor
Matthew Grob
Spindola Serafin Diaz
Gerald Wright
Virginia Keating
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2793332T3 publication Critical patent/ES2793332T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00315Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a radio transmission apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/083Network architectures or network communication protocols for network security for authentication of entities using passwords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0013Arrangements for the control of the connected apparatus by the still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0034Details of the connection, e.g. connector, interface
    • H04N2201/0048Type of connection
    • H04N2201/0055By radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Un procedimiento realizado por un dispositivo principal (110), comprendiendo el procedimiento: escanear (202) un dispositivo objeto (180) con el dispositivo principal (110) y mostrar la imagen del dispositivo objeto en el dispositivo principal (110); identificar (204) el dispositivo objeto usando la imagen del dispositivo objeto (180); descubrir el dispositivo objeto (180) intercambiando mensajes de descubrimiento entre el dispositivo principal (110) y el dispositivo objeto (180); tras el descubrimiento, emparejar con el dispositivo objeto (180) e interactuar (208) con el dispositivo objeto (180) directamente con el dispositivo principal (110) basándose en la identidad del dispositivo objeto (180); caracterizado por que el procedimiento comprende además: emparejar el dispositivo principal (110) con un segundo dispositivo objeto (180A); y usar el dispositivo principal (110) para emparejar el dispositivo objeto (180) y el segundo dispositivo objeto (180A).

Description

DESCRIPCIÓN
interconexión automática entre un dispositivo principal y un dispositivo objeto
REFERENCIAS CRUZADAS A SOLICITUDES RELACIONADAS
[0001] Esta solicitud reivindica el beneficio de la solicitud provisional n.° 61/226552, presentada el 17 de julio del 2009 y la solicitud provisional n.° 61/226 545, presentada el 17 de julio de, 2009, que están cedidas al cesionario de la misma.
ANTECEDENTES
[0002] Los dispositivos inalámbricos están cada vez más extendidos. La interconexión con dispositivos inalámbricos es actualmente un proceso relativamente difícil o limitado. Por ejemplo, emparejar dispositivos electrónicos es actualmente una tarea compleja, que requiere que el usuario active los protocolos en ambos dispositivos, a continuación solicite el descubrimiento y a continuación el emparejamiento. Además, algunos dispositivos electrónicos tienen poca o ninguna interconexión integrada, lo cual dificulta su interacción con ellos. El precio de las pantallas de visualización y los tamaños de dispositivos pequeños que en general se desean son barreras para poner interfaces ricas en cada dispositivo inalámbrico.
[0003] A medida que el uso de dispositivos inalámbricos aumenta, la interconexión entre los dispositivos electrónicos se hará más difícil. Por ejemplo, los dispositivos electrónicos actuales típicamente incluyen nombres de dispositivo indistintos que no tienen asociación con el dispositivo físico y son confusos para los usuarios, por ejemplo, un nombre predeterminado de Bluetooth del teléfono puede ser NOK234B y no aparece en el teléfono. La confusión que sufren los usuarios se agravará por el creciente número de dispositivos inalámbricos con los que es posible el emparejamiento.
[0004] Se dirige la atención al documento US 2006/028557 A1 que se refiere a un código de información mostrado en un receptor de imágenes que es fotografiado por un aparato de captura de imágenes. Los datos digitales que representan un número único para el aparato de captura de imágenes y los datos digitales que representan el código de información único para el receptor de imágenes obtenido mediante la fotografía se codifican de acuerdo con los datos digitales que representan el código de información, a continuación se transfieren a una sección de envío inalámbrica digital o y se radiodifunden a través de una antena como señal inalámbrica digital. Un microprocesador montado en el receptor de imágenes descodifica los datos digitales que representan un número único para el aparato de captura de imágenes y los datos digitales que representan el código de información único para el receptor de imágenes que utiliza los datos digitales que representan el código de información. Por lo tanto, para transmitir una señal de imagen y una señal de audio entre el aparato de captura de imágenes y el receptor de imágenes de forma inalámbrica, los aparatos se autentifican entre sí.
[0005] Por lo tanto, existe una creciente demanda para interactuar de forma fácil y natural con los dispositivos.
BREVE EXPLICACIÓN
[0006] De acuerdo con la presente invención, se proporciona un procedimiento, como se expone en la reivindicación 1, un dispositivo principal, como se expone en la reivindicación 3 y un sistema como se expone en la reivindicación 12. Otros modos de realización se reivindican en las reivindicaciones dependientes.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0007]
La Fig. 1 es un diagrama de bloques que ilustra un sistema de ejemplo de dispositivos conectados de forma inalámbrica, incluyendo un dispositivo principal y un dispositivo objeto.
La Fig. 2 es un diagrama de bloques que ilustra un ejemplo de un dispositivo principal que puede interactuar automáticamente con un dispositivo objeto.
La Fig. 3 es un diagrama de flujo del procedimiento de interconexión del dispositivo principal con el dispositivo objeto.
Las Fig. 4A y 4B ilustran un dispositivo principal que interactúa con un dispositivo objeto con datos relacionados con el dispositivo objeto mostrado en el dispositivo principal.
Las Fig. 5A y 5B ilustran un dispositivo principal que interactúa con un dispositivo objeto y la muestra del dispositivo principal aumentada con los datos relacionados con el dispositivo objeto.
Las Fig. 6A, 6B, 6C y 6D ilustran un dispositivo principal que interactúa con un dispositivo objeto con datos aumentados relacionados con el dispositivo objeto mostrado en el dispositivo principal sobre la imagen del dispositivo objeto.
Las Fig. 7A y 7B ilustran un dispositivo principal que interactúa con un dispositivo objeto que tiene capacidades de interconexión limitadas.
Las Fig. 8A y 8B ilustran un dispositivo principal que interactúa con un dispositivo objeto donde el dispositivo principal proporciona una funcionalidad ampliada para el dispositivo objeto.
La Fig. 9A ilustra un dispositivo principal que identifica uno de múltiples dispositivos objeto idénticos usando información radiodifundida por los dispositivos objeto.
Las Fig. 9B, 9C y 9D ilustran un dispositivo principal utilizado para interactuar con dos dispositivos objeto.
Las Fig. 10A, 10B y 10C ilustran un dispositivo principal utilizado para iniciar una interconexión entre dos dispositivos objeto.
La Fig. 11 es un diagrama de flujo del procedimiento con el que el dispositivo principal puede escanear un objeto pasivo con el que no es posible emparejar o interactuar y el dispositivo principal recuperar y mostrar datos relacionados con el objeto.
La Fig. 12 ilustra un dispositivo principal que inicia y muestra automáticamente una aplicación basada en la imagen de un objeto.
Las Fig. 13A y 13B ilustran el dispositivo principal escaneando un objeto pasivo y recupera y muestra información sobre el objeto pasivo.
Las Fig. 14A y 14B ilustran otro ejemplo del dispositivo principal escaneando un objeto pasivo y recupera y muestra información relacionada con el objeto pasivo.
Las Fig. 15A, 15B y 15C ilustran un dispositivo principal escaneando un objeto pasivo, recupera datos relacionados con el objeto y pasa los datos a un dispositivo objeto con el cual el dispositivo principal está interactuando.
DESCRIPCIÓN DETALLADA
[0008] Un sistema y procedimiento descritos en el presente documento automatizan el emparejamiento o de otra manera la interconexión de un dispositivo principal y un dispositivo objeto usando, por ejemplo, una imagen del dispositivo objeto tomada con el dispositivo principal. El dispositivo principal puede usarse para proporcionar información relevante relacionada con el dispositivo objeto, por ejemplo, superponiendo la información en la imagen del dispositivo objeto. El dispositivo principal puede incluir capacidades de interacción que son superiores a las encontradas en el dispositivo objeto y puede permitir interacciones con el dispositivo objeto que de otro modo serían difíciles o imposibles, por ejemplo, debido a las capacidades limitadas o nulas de interconexión del dispositivo objeto.
[0009] La Fig.1 es un diagrama de bloques que ilustra un ejemplo de un sistema 100 de dispositivos conectados inalámbricamente, incluyendo un dispositivo principal 110 y un dispositivo objeto 180. A modo de ejemplo, el dispositivo principal 110 puede ser un teléfono móvil u otros dispositivos electrónicos, tales como un PC ultramóvil ("UMPC"). En un modo de realización, el dispositivo principal 110 puede ser semimóvil o estacionario. Por ejemplo, el dispositivo principal 110 puede estar ubicado en una ubicación fija o semifija, por ejemplo, en una tienda, que puede usarse para emparejar fácilmente nuevos dispositivos entre sí. A modo de ejemplo, el dispositivo objeto pueden ser dispositivos tales como una cámara digital, reproductor de música, televisión, trama de imagen digital o cualquier otro dispositivo. Además, debe apreciarse que el dispositivo objeto 180 puede ser portátil o, en algunos casos, relativamente o completamente no portátil. El dispositivo principal 110 incluye una cámara 112 y una pantalla 114. El dispositivo principal 110 interactúa con el dispositivo objeto 180 escaneando el dispositivo objeto 180 usando la cámara 112; la imagen 180image del dispositivo objeto 180 se puede mostrar en la pantalla 114, y usando la imagen 180image para identificar el dispositivo objeto 180. Con el dispositivo objeto 180 identificado, el dispositivo principal 110 puede entonces interactuar automáticamente con el dispositivo objeto 180, como se ilustra mediante la flecha 116. El dispositivo principal 110 también puede comunicarse con una red 102, por ejemplo, una red de área amplia, tal como Internet), a través de un enlace 104, que puede usarse para facilitar la identificación o interacción con el dispositivo objeto 180. Opcionalmente, el dispositivo principal 110 puede interactuar 116a con el dispositivo objeto 180 indirectamente a través de la red 102.
[0010] La Fig. 2 es un diagrama de bloques que ilustra un ejemplo de un dispositivo principal 110. El dispositivo principal 110 incluye un medio para escanear, como una cámara 112, y un medio para interactuar con un dispositivo objeto, como una interfaz inalámbrica 130 para comunicarse a través del enlace inalámbrico 116 (mostrado en la Fig.
1). El dispositivo principal 110 también puede incluir un medio para detectar movimiento, tal como sensores de movimiento 118, que pueden ser acelerómetros o giroscopios, para detectar el movimiento del dispositivo principal 110, que puede usarse para detectar gestos usados como entrada de usuario para el dispositivo principal 110. El dispositivo principal 110 incluye además un medio para identificar un dispositivo objeto 180, que puede ser, por ejemplo, una unidad de control del dispositivo principal 120, que incluye un procesador 122 que está en comunicación con la memoria 124, que incluye software 126, y puede incluir además hardware 128 y firmware 129, y puede incluir además aspectos de una interfaz de usuario 150, como la pantalla o el teclado 152. La cámara 112 y la interfaz inalámbrica 130, y los sensores de movimiento 118 si se utilizan, están conectados a la unidad de control 120. La unidad de control 120 incluye un motor gráfico 125, que se ilustra como funcionalmente separado del procesador 122, pero de hecho puede ser realizado por el procesador 122. El motor gráfico 125 genera datos de aumento que pueden mostrarse por la imagen de, por ejemplo, el dispositivo objeto 180. Se entenderá como se usa en el presente documento que el procesador puede incluir, pero no necesariamente incluye, uno o más microprocesadores, procesadores integrados, controladores, circuitos integrados específicos de la aplicación (ASIC), procesadores de señales digitales (DSP) y similares. El término procesador está previsto para describir las funciones implementadas por el sistema en lugar de un hardware específico. Además, como se usa en el presente documento, el término "memoria" se refiere a cualquier tipo de medio de almacenamiento informático, incluyendo memoria a largo plazo, a corto plazo u otra memoria asociada a la plataforma móvil, y no está limitado a ningún tipo particular de memoria o número de memorias, ni al tipo de medio en el que se almacena la memoria.
[0011] El dispositivo principal 110 también incluye una interfaz de usuario 150, que incluye un medio para la visualización, tal como la pantalla 114, así como un dispositivo de entrada de usuario 152, tal como un teclado, pantalla táctil, o cualquier otro dispositivo de entrada táctil adecuado. La interfaz de usuario 150 también puede incluir un altavoz 154 y un micrófono 156, como cuando el dispositivo principal 110 es un teléfono móvil.
[0012] La interfaz inalámbrica 130 incluye cualquier antena adecuada 132, un receptor y un transmisor o un transceptor de manera que el dispositivo principal 110 puede comunicarse con uno o más dispositivos objeto por el enlace inalámbrico 116. Opcionalmente, la interfaz inalámbrica 130 también puede tener capacidades de procesamiento para reducir los requisitos de procesamiento del procesador 122.
[0013] Opcionalmente, el dispositivo principal 110 puede incluir una interfaz de red 140, tal como un transceptor, con una antena 142 para comunicarse por la red 102 a través de un enlace 104 (que se muestra en la Fig. 1). Por ejemplo, el dispositivo principal 110 puede proporcionar conectividad a la otra red 102 (por ejemplo, una red de área amplia como Internet) a través de un enlace de comunicación por cable o inalámbrico. En consecuencia, el dispositivo principal 110 puede permitir que otros dispositivos objeto 180 (por ejemplo, una estación de Wi-Fi) accedan a la red 102. La interfaz de red 140 se puede implementar conjuntamente con diversas redes de comunicación inalámbrica, incluyendo torres de celulares y desde puntos de acceso de comunicación inalámbrica, como una red inalámbrica de área extensa (WWAN), una red inalámbrica de área local (WLAN), una red inalámbrica de área personal (WPAN), etc. Los términos "red" y "sistema" se usan a menudo de manera intercambiable. Una WWAN puede ser una red de acceso múltiple por división de código (CDMA), una red de acceso múltiple por división del tiempo (TDMA), una red de acceso múltiple por división de frecuencia (FDMA), una red de acceso múltiple por división ortogonal de frecuencia (OFDMA), una red de acceso múltiple por división de frecuencia de única portadora (SC-FDMA), una red de evolución a largo plazo (LTE), etc. Una red CDMA puede implementar una o más tecnologías de acceso por radio (RAT), tales como cdma2000, CDMA de banda ancha (W-CDMA), etc. Cdma2000 incluye las normas IS-95, IS-2000 e IS-856. Una red TDMA puede implementar el sistema global para comunicaciones móviles (GSM), el sistema digital avanzado de telefonía móvil (D-AMPS) o alguna otra RAT. El GSM y el W-CDMA se describen en documentos de un consorcio llamado "Proyecto de Colaboración de Tercera Generación" (3GPP). La Cdma2000 se describe en documentos de un consorcio llamado "Segundo proyecto de colaboración de tercera generación" (3GPP2). Los documentos del 3GPP y del 3GPP2 están a disposición del público. Una WLAN puede ser una red de 802,11x del IEEE y una WPAN puede ser una red Bluetooth, una red de 802,15x del IEEE o algún otro tipo de red. Las técnicas también se pueden implementar junto con cualquier combinación de WWAN, WLAN y/o WPAN.
[0014] El dispositivo principal 110 puede incluir opcionalmente una batería 121 para proporcionar energía a uno o más componentes del dispositivo principal 110. El dispositivo principal 110 puede comprender al menos uno de un teléfono móvil, un asistente digital personal, un ordenador portátil, auriculares, un dispositivo manos libres para vehículos o cualquier otro dispositivo electrónico. En particular, las enseñanzas del presente documento pueden incorporarse a (por ejemplo, implementarse en o realizarse mediante) una variedad de dispositivos. Por ejemplo, uno o más aspectos enseñados en el presente documento pueden incorporarse a un teléfono (por ejemplo, un teléfono celular), un asistente de datos personales ("PDA"), UMPC, un dispositivo de entretenimiento (por ejemplo, un dispositivo de música o vídeo), o cualquier otro dispositivo que incorpora una cámara 112.
[0015] Las metodologías descritas en el presente documento se pueden implementar por diversos medios que dependen de la aplicación. Por ejemplo, estas metodologías se pueden implementar en hardware 128, software 126, firmware 129 o cualquier combinación de los mismos. Para una implementación en hardware, las unidades de procesamiento se pueden implementar en uno o más circuitos integrados específicos de la aplicación (ASIC), procesadores de señales digitales (DSP), dispositivos de procesamiento de señales digitales (DSPD), dispositivos lógicos programables (PLD), matrices de puertas programables por campo (FPGA), procesadores, controladores, microcontroladores, microprocesadores, dispositivos electrónicos, otras unidades electrónicas diseñadas para desempeñar las funciones descritas en el presente documento, o en una combinación de los mismos.
[0016] En una implementación en firmware y/o software, las metodologías se pueden implementar con módulos (por ejemplo, procedimientos, funciones, etc.) que realizan las funciones descritas en el presente documento. Cualquier medio legible por máquina que realiza instrucciones de forma tangible se puede usar para implementar las metodologías descritas en el presente documento. La memoria se puede implementar dentro de la unidad de procesadora o ser externa a la unidad procesadora. Como se usa en el presente documento, el término "memoria" se refiere a cualquier tipo de memoria de largo plazo, de corto plazo, volátil, no volátil u otra diferente, y no se debe limitar a ningún tipo de memoria o número de memorias en particular, ni al tipo de medio en el que se almacena la memoria.
[0017] Por ejemplo, los códigos de software 126 se pueden almacenar en la memoria 124 y ejecutarse mediante el procesador 122 y se pueden usar para ejecutar el procesador y para controlar el funcionamiento del dispositivo principal 110 como se describe en el presente documento. Por ejemplo, un código de programa almacenado en un medio legible por ordenador, como la memoria 124, puede incluir código de programa para identificar un dispositivo objeto usando una imagen del dispositivo objeto y código de programa para interactuar con el dispositivo objeto identificado. El medio legible por ordenador puede incluir un código de programa para mostrar los datos de radiodifusión recibidos de un dispositivo objeto y usar los datos de radiodifusión para facilitar la identificación del dispositivo objeto con el que se va a interactuar.
[0018] Si se implementan en firmware y/o software, las funciones se pueden almacenar como una o más instrucciones o código en un medio legible por ordenador. Los ejemplos incluyen medios legibles por ordenador codificados con una estructura de datos y medios legibles por ordenador codificados con un programa informático. Los medios legibles por ordenador incluyen medios de almacenamiento informáticos físicos. Un medio de almacenamiento puede ser cualquier medio disponible al que se pueda acceder mediante un ordenador. A modo de ejemplo, y no de regulación, dichos medios legibles por ordenador pueden comprender RAM, ROM, EEPROM, CD-ROM u otro almacenamiento de disco óptico, almacenamiento de disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que se pueda usar para almacenar el código de programa deseado en forma de instrucciones o estructuras de datos y al que se puede acceder mediante un ordenador; como se usa en el presente documento, un disco incluye un disco compacto (CD), un disco de láser, un disco óptico, un disco versátil digital (DVD), un disco flexible y un disco Blu-ray, donde los discos reproducen habitualmente datos de forma magnética o de forma óptica con láser. Las combinaciones de los anteriores también se deben incluir dentro del alcance de los medios legibles por ordenador.
[0019] La Fig. 3 es un diagrama de flujo del procedimiento de interconexión del dispositivo principal 110 con el dispositivo objeto 180. El dispositivo principal 110 puede interactuar con el dispositivo objeto mediante "emparejamiento", que es un proceso mediante el cual los dispositivos se registran entre sí. Una vez emparejados, los dispositivos típicamente pueden comunicarse entre sí siempre que estén dentro del alcance y estén activos sin volver a realizar el proceso de emparejamiento. Para facilitar la referencia, interconexión a veces se denomina en el presente documento emparejamiento, pero debe entenderse que también se contemplan formas adicionales de interconexión, además del emparejamiento, en el presente documento.
[0020] Como se ilustra en la Fig. 3, se escanea el dispositivo objeto con el que emparejarse utilizando el dispositivo principal (202). La imagen del dispositivo objeto puede mostrarse al usuario para asegurarse de que el dispositivo principal está interactuando con el dispositivo objeto deseado. La imagen se puede producir como una imagen fija usando la cámara o como vídeo. El dispositivo principal identifica el dispositivo objeto de la imagen (204). La identificación puede basarse en la apariencia visual del dispositivo objeto o en un marcador visible que aparece en el dispositivo objeto, como un código de barras u otro tipo de marca. La identificación puede basarse adicionalmente en una baliza de radiodifusión, por ejemplo, basándose en una etiqueta o frecuencia, desde el dispositivo objeto 180, que, por ejemplo, permite el acceso público a información limitada, tal como posición geográfica, orientación geográfica, ID o un categoría como, entre otros, el tipo de dispositivo objeto (por ejemplo, cámara digital, reproductor de mp3, etc.), subcategoría (por ejemplo, cámara digital de apuntar y disparar), marca (por ejemplo, Sony, Nokia, etc.), género de contenido (por ejemplo, película, canción, etc.), o cualquier combinación de los mismos. El dispositivo principal 110 puede identificar el dispositivo objeto 180 recuperando una coincidencia de una tabla de búsqueda utilizando la apariencia visual, el marcador visible o la información obtenida de la baliza de radiodifusión. En un modo de realización, el dispositivo principal 110 puede usar sensores no visuales disponibles para reducir la tabla de búsqueda de elementos probables, y a continuación realizar una comparación visual de la imagen con la tabla de búsqueda usando características de punto clave u otras referencias visuales, tales como líneas. La tabla de consulta, por ejemplo, puede incluir imágenes almacenadas previamente de diseños industriales de electrónica de consumo o modelos tridimensionales de dichos diseños. La tabla de búsqueda puede almacenarse, por ejemplo, en el dispositivo principal 110, en el dispositivo objeto 180 o en una ubicación remota, por ejemplo, en un servidor al que se accede mediante la red 102 a través del enlace 104 (mostrado en la Fig. 1).
[0021] En un modo de realización, la identificación puede basarse en la información de identificación visual proporcionada por el dispositivo objeto. Por ejemplo, el dispositivo objeto puede radiodifundir información visual sobre el dispositivo objeto con el que se puede identificar el dispositivo objeto. El dispositivo objeto puede radiodifundir cómo se ve el dispositivo objeto o la imagen o información sobre una imagen mostrada por el dispositivo objeto, por ejemplo, cuando el dispositivo objeto es una trama de imagen digital como se ilustra en la Fig. 9A, lo cual puede ser útil cuando hay dispositivos objeto idénticos presentes. A continuación, el dispositivo principal 110 puede escanear los dispositivos objeto y comparar la imagen tomada por el dispositivo principal 110 con la información de radiodifusión sobre los dispositivos objeto, por ejemplo, la imagen mostrada actualmente en la trama de imagen digital, para identificar el dispositivo objeto. Por ejemplo, como se ilustra en la Fig. 9A, el dispositivo principal 110 puede usar el diseño industrial de la trama digital 180A para reconocer ese dispositivo objeto. Sin embargo, si hubiera múltiples tramas similares o idénticas, por ejemplo, el mismo diseño industrial, ilustrado por la trama 180A y 180B, pero cada una muestra una imagen de pantalla diferente, el usuario podría seleccionar una (180A) en la visualización de la cámara y el dispositivo principal 110 podría identificar con cuál de los dispositivos objeto 180A, 180B se empareja usando la imagen mostrada actualmente. La identificación puede basarse en una imagen fija mostrada, por ejemplo, como con una trama de imagen digital, o en un vídeo mostrado. Para la identificación basada en un vídeo, la comparación se puede hacer, por ejemplo, basándose en una secuencia de firmas de vídeo compartidas, que son resúmenes de "cómo se ve" un vídeo en un segmento de tiempo predeterminado, o basándose en una trama del vídeo que se produce en un momento conocido con la adición de una corrección de errores en la que también se compara un número seleccionado para tramas a cada lado de la trama seleccionada. Estas técnicas pueden usarse con otros dispositivos objeto, tales como ordenadores, ordenadores portátiles, teléfonos celulares, reproductores de música, etc. En un modo de realización, el dispositivo principal 110 puede mostrar una imagen de la información radiodifundida por el dispositivo objeto, desde la cual el usuario puede seleccionar el dispositivo objeto deseado con el que interactuar, lo cual evitaría la necesidad de que el dispositivo principal 110 escanee el dispositivo objeto con el dispositivo principal 110. Si se desea, se puede usar una imagen del dispositivo objeto tomada por el dispositivo principal 110 para filtrar el número de dispositivos objeto emparejables que el dispositivo principal 110 muestra para la selección del usuario.
[0022] Basándose en la identificación del dispositivo objeto, el dispositivo principal puede determinar si se puede interactuar con el dispositivo objeto, como se ilustra en el paso opcional 206. El dispositivo principal 110 puede indicar en la imagen del dispositivo objeto 180 en la pantalla 114 si se puede interactuar con el dispositivo objeto 180 y dar al usuario la oportunidad de indicar si se desea la interconexión. Por ejemplo, la imagen del dispositivo objeto 180 puede mostrarse resaltada o iluminada en la pantalla 114 del dispositivo principal 110 para indicar la capacidad de emparejamiento. El aumento de la muestra de la imagen del dispositivo objeto puede incluir información obtenida de la baliza de radiodifusión del dispositivo objeto 180. El usuario puede elegir emparejar, no emparejar u ocultar la capacidad de emparejamiento del dispositivo objeto. La capacidad de emparejamiento puede estar oculta, por ejemplo, una vez, para todo el tiempo, o para todos los dispositivos objeto dentro de una clase específica, por ejemplo, todas las tramas de imagen digitales.
[0023] A continuación, el dispositivo principal 110 puede interactuar o emparejarse con el dispositivo objeto (208) automáticamente o en respuesta a la selección del usuario. El uso de la selección del usuario puede ser ventajoso cuando hay más de un dispositivo objeto emparejable en la imagen. A modo de ejemplo, la selección del usuario puede basarse en gestos, por ejemplo, donde diferentes dispositivos objeto emparejables se resaltan basándose en gestos, y el dispositivo objeto deseado se selecciona una vez que se resalta. Además, el usuario puede, por ejemplo, indicar que se desea el emparejamiento, y el proceso de emparejamiento puede ser automático. Cuando el emparejamiento es automático, se puede utilizar un paso de seguridad intermedio para garantizar que el usuario desee el emparejamiento con el dispositivo objeto. El emparejamiento puede optimizarse para dispositivos específicos en ubicaciones específicas, por ejemplo, utilizando el procedimiento de emparejamiento de potencia más baja para alcanzar la distancia entre el dispositivo principal y el dispositivo objeto. Además, el procedimiento de emparejamiento puede cambiar automáticamente según sea necesario si cambian las posiciones relativas del dispositivo principal y el dispositivo objeto. Para interactuar o emparejarse, el dispositivo principal y el dispositivo objeto primero deben descubrirse entre sí, por ejemplo, accediendo a un estado reconocible en el que los dispositivos se descubran entre sí a través del intercambio de mensajes de descubrimiento. Por ejemplo, el dispositivo principal 110 puede solicitar que los dispositivos objeto emparejables locales entren en modo de descubrimiento. El dispositivo principal 110 puede iniciar la petición, por ejemplo, a través de la red 102. La red puede estimular cualquier dispositivo objeto emparejable en el área del dispositivo principal 110 para entrar en modo de descubrimiento. De forma alternativa, el dispositivo principal puede primero identificar el dispositivo objeto 180 deseado, a continuación iniciar la petición de descubrimiento, por ejemplo, a través de la red 102 para que todos los dispositivos objeto similares en el área del dispositivo principal 110 entren en modo descubrimiento. Tras el descubrimiento, los dispositivos pueden emparejarse entre sí. El emparejamiento es al menos en parte una función de seguridad para limitar el emparejamiento con dispositivos particulares. Por ejemplo, el emparejamiento puede incluir un intercambio de mensajes que pueden incluir esquemas de autentificación de contraseña en los que el primer dispositivo debe responder con una contraseña (como un número de cuatro dígitos, que a menudo se fija en la fábrica para un dispositivo) a un segundo dispositivo para evitar emparejamiento no autorizado o no deseado de dispositivos. En protocolos de red como Bluetooth, el descubrimiento y el emparejamiento son procedimientos separados, pero se pueden realizar juntos. El emparejamiento real se puede hacer con cualquier protocolo actual a través de la práctica estándar del protocolo (por ejemplo, Bluetooth, WiFi, IR...).
[0024] Si se desea, la imagen mostrada en el dispositivo principal 110 puede aumentarse para indicar el estado del dispositivo objeto, por ejemplo, confirmar el emparejamiento como se indica en el paso opcional 210, usando, por ejemplo, los datos de aumento proporcionadas por el motor gráfico 125. Además, los datos relacionados con el dispositivo objeto pueden mostrarse en el dispositivo principal en el paso opcional 214.
[0025] Las Fig. 4A y 4B, a modo de ejemplo, ilustran el emparejamiento de un dispositivo principal 110 con un dispositivo objeto 180, en este caso una cámara digital, donde los datos relacionados con el dispositivo objeto 180 se muestran en el dispositivo principal 110 después del emparejamiento (214). La Fig. 4A ilustra el dispositivo principal 110 escaneando el dispositivo objeto 180 (202), donde se muestra la imagen del dispositivo objeto 180image en la pantalla 114 del dispositivo principal 110. Basándose en la imagen del dispositivo objeto 180image, el dispositivo principal 110 empareja 116 con el dispositivo objeto 180 y muestra los datos relacionados con el dispositivo objeto 180, en este caso, las fotografías 182 tomadas por el dispositivo objeto 180, en la pantalla 114 del dispositivo principal 110, como se ilustra en la Fig. 4B. El usuario puede seleccionar los datos relacionados con el dispositivo objeto 180 que muestra el dispositivo principal 110 o pueden mostrarse automáticamente.
[0026] Los datos relacionados con el dispositivo objeto 180 pueden ser información sobre el dispositivo objeto. Por ejemplo, los datos pueden estar relacionados con el historial o las propiedades del dispositivo objeto, con los archivos de ayuda que describen cómo realizar tareas relacionadas con el dispositivo objeto u otros datos similares. De forma alternativa, los datos relacionados pueden ser del dispositivo objeto, como fotografías de una cámara digital, una lista de archivos, como música o películas, u otra información almacenada en el dispositivo objeto. Además, los datos relacionados pueden ser una aplicación o una interfaz con el dispositivo objeto. A modo de ejemplo, las Fig. 5A y 5B ilustran un dispositivo principal 110 que interactúa con un dispositivo objeto 180 en forma de una unidad flash USB, y la muestra del dispositivo principal 110 aumentada con los datos 180data relacionados con el dispositivo objeto 180. Como se ilustra en la Fig. 5B, después de emparejamiento 116, se muestran los datos relacionados 180data, que pueden ser una lista de los archivos almacenados en la unidad flash o incluso se abren los archivos almacenados en la unidad flash. Por lo tanto, el dispositivo principal 110 puede proporcionar una interfaz de usuario para el dispositivo objeto 180 cuando el dispositivo objeto 180 en sí mismo no tiene una interfaz de usuario.
[0027] Las Fig. 6A, 6B, 6C, y 6D ilustran otro ejemplo de un dispositivo principal 110 de interfaz con un dispositivo objeto 180 en la forma de un reloj, con datos aumentados 180dato relativos al dispositivo objeto 180 que se muestra en el dispositivo principal 110 sobre la imagen del dispositivo objeto 180image. Como se ilustra, los datos relacionados 180data pueden ser mostrados por el dispositivo principal 110 como estrechamente alineados (Fig. 6A), vagamente alineados (Fig. 6B), o no alineados (Figs. 6C, 6D) con la imagen del dispositivo objeto 180image. Como se ilustra en la Fig. 6D, los datos relacionados del dispositivo objeto 180 se pueden mostrar en toda la pantalla del dispositivo principal 180, mediante el seguimiento de puntos claves de la imagen 180image, y a continuación bloqueando el aumento de gráficos en la misma.
[0028] El dispositivo principal 110 puede ser utilizado para proporcionar una interfaz de usuario con un dispositivo objeto que tiene capacidades de interfaz de usuario limitadas o simplemente para proporcionar una interfaz de usuario con funcionalidad ampliada con relación a la permitida por la interfaz de usuario del dispositivo objeto. Por ejemplo, las Fig. 7A y 7B ilustran un dispositivo principal 110 emparejado con un dispositivo objeto 180 que tiene capacidades limitadas de interfaz de usuario. El dispositivo objeto 180 en las Fig. 7A y 7B tiene la forma de un reproductor de MP3, que puede tener una interfaz de usuario física pero no una pantalla para proporcionar una interfaz gráfica de usuario (GUI). Como se muestra en la Fig. 7A, el dispositivo principal 110 se empareja con el dispositivo objeto 180 escaneando el dispositivo objeto 180. Como se muestra en la Fig. 7B, después del emparejamiento 116, los datos relacionados con el dispositivo objeto 180 en el dispositivo principal 110 son una GUI que puede usarse, por ejemplo, para permitir una funcionalidad adicional del reproductor de MP3.
[0029] Las Fig. 8A y 8B ilustran un dispositivo principal 110 que interactúa con un dispositivo objeto 180 donde el dispositivo principal 110 proporciona una funcionalidad ampliada. El dispositivo objeto 180 en las Fig. 8A y 8B tiene la forma de un reproductor de mp3, que tiene una interfaz gráfica de usuario. Como se muestra en la Fig. 8A, el dispositivo principal 110 se empareja con el dispositivo objeto 180 escaneando el dispositivo objeto 180. Como se muestra en la Fig. 8B, después del emparejamiento 116, los datos relacionados con el dispositivo objeto 180 en el dispositivo principal 110 son una GUI y la interfaz proporciona una funcionalidad ampliada, tal como una pantalla táctil para una interacción más fácil del usuario, una pantalla más grande, que permite gestos más naturales para controlar o proporcionar capacidades adicionales, como crear listas de reproducción.
[0030] Por lo tanto, diversos tipos de datos relacionados con el dispositivo objeto 180 pueden ser mostrados por el dispositivo principal 110. Por ejemplo, los datos pueden ser pasivos, como la información ilustrada en la Fig. 6A, o interactivos, como la interfaz de música mostrada en la Fig. 7B. Además, se puede mostrar la funcionalidad expuesta por el dispositivo objeto directamente o a través de una fuente remota, como la red 102 que se muestra en la Fig. 1. A modo de ejemplo, en las Fig. 5A, 5B, los 180data pueden provenir de la red 102, a diferencia del propio dispositivo objeto 180. Como ejemplo, cuando la unidad flash USB 180 que se muestra en la Fig. 5A se conecta a un ordenador, los 180data se pueden sincronizar en la red 102. Cuando el dispositivo principal 110 se empareja con la unidad flash USB 180, en realidad puede emparejarse con los datos sincronizados en la red 102. En otro ejemplo, la funcionalidad del reproductor de MP3 se está extendiendo, donde una copia de los datos en el reproductor de MP3 está en la red 102. Dado que la funcionalidad ampliada (por ejemplo, hacer una lista de reproducción) puede no ser posible en el propio reproductor de MP3, el dispositivo principal 110 puede usarse para manipular los datos en la red 102. Una vez que se haya completado la interacción (por ejemplo, se haya creado una nueva lista de reproducción), la red 102 se sincroniza con el reproductor de MP3 (dispositivo objeto) 180. Si se desea, la interacción entre el dispositivo principal 110 y el dispositivo objeto 180 puede ser persistente entre llamadas de aumento. Por ejemplo, los datos aumentados que se muestran se pueden mantener en el mismo estado en que aparecían la vez anterior. Además, el dispositivo principal 110 puede proporcionar órdenes o datos al dispositivo objeto 180. En otras palabras, el dispositivo objeto 180 puede controlarse a través de la interfaz con el dispositivo principal 110. Los datos pueden almacenarse en el dispositivo principal 110, el dispositivo objeto 180 o en una ubicación remota, por ejemplo, un servidor al que se accede a través de la red 102 (Fig. 1).
[0031] Además, el dispositivo principal 110 también puede interactuar con múltiples dispositivos objeto. Por ejemplo, como se ilustra en las Fig. 9B, 9C y 9D, se usa un dispositivo principal 110 para interactuar con dos dispositivos objeto, ilustrados como una cámara digital 180 y una trama de imagen digital 180A. El dispositivo principal 110 puede usarse para recuperar datos de un dispositivo objeto, por ejemplo, la cámara 180, y para pasar los datos al otro dispositivo objeto, por ejemplo, la trama de imagen digital 180A. La Fig. 9B ilustra el dispositivo principal 110 emparejándose con la cámara 180 al escanear la cámara 180. La trama de imagen digital 180A puede estar ya o posteriormente emparejada 116A, como se muestra en la Fig. 9C, de manera similar. La Fig. 9C ilustra que después del emparejamiento 116 entre el dispositivo principal 110 y la cámara 180, los datos son recibidos desde la cámara 180 por el dispositivo principal 110 y mostrados por el dispositivo principal 110. A continuación, los datos seleccionados pueden pasarse del dispositivo principal 110 al segundo dispositivo objeto, por ejemplo, la trama de imagen digital 180A, y pueden mostrarse como se muestra en la Fig. 9D o de otro modo ser almacenados o usados por el segundo dispositivo objeto. El paso de datos puede ser automático u ocasionado por la interacción del usuario, incluida la selección a través de una pantalla táctil o un gesto del usuario detectado por sensores de movimiento 118, tales como acelerómetros o giroscopios, en el dispositivo principal 110. Para el uso de un gesto para iniciar un paso de datos, las ubicaciones relativas de uno o más de los dispositivos objeto 180, 180A entre sí y/o el dispositivo principal 110 pueden determinarse previamente, por ejemplo, detectando el cambio en posición u orientación del dispositivo principal 110 usando los sensores de movimiento 118 entre el escaneo de los dos dispositivos objeto 180, 180A. De forma alternativa, el seguimiento del flujo de píxeles puede usarse para determinar visualmente la relevancia entre los dispositivos objeto 180, 180A.
[0032] En un modo de realización, el dispositivo principal 110 puede usarse para facilitar el emparejamiento entre dos o más dispositivos objeto mediante la interconexión con los dispositivos objeto y el inicio del emparejamiento entre los dispositivos objeto, lo cual puede ser particularmente útil cuando las interfaces de usuario de los dispositivos objeto dificultan el emparejamiento directo de esos dispositivos. Por ejemplo, como se ilustra en las Fig. 10A, 10B y 10C, se usa un dispositivo principal 110 para iniciar una interconexión entre dos dispositivos objeto, ilustrados como la cámara digital 180 y una trama de imagen digital 180A. La Fig. 10A ilustra el dispositivo principal 110 emparejándose 116 con la cámara 180 al escanear la cámara 180. La Fig. 10B muestra que el dispositivo principal 110 está emparejado 116A con un dispositivo objeto objetivo, ilustrado como una trama de imagen digital 180A al escanear la trama de imagen digital 180A. Con los dos dispositivos objeto 180, 180A emparejados con el dispositivo principal 110, el dispositivo principal 110 puede usarse para iniciar el emparejamiento 116B entre los dos dispositivos objeto 180, 180A como se ilustra en la Fig. 10C. El emparejamiento de los dos dispositivos objeto 180, 180A puede hacerse automáticamente, o en respuesta a la interacción del usuario, como la selección a través de la interfaz de usuario del dispositivo principal 110, mediante un gesto entre los dispositivos objeto 180, 180A donde el dispositivo principal 110 conoce las ubicaciones relativas de los dispositivos objeto 180, 180A o mediante el uso de especificaciones de protocolo de cada dispositivo objeto 180, 180A. El emparejamiento 186 entre los dispositivos objeto 180, 180A puede persistir en ausencia del dispositivo principal 110.
[0033] En otro modo de realización, como se ilustra en el diagrama de flujo mostrado en la Fig. 11, el dispositivo principal 110 puede escanear un objeto pasivo 190 (302), es decir, un objeto que no es capaz de ser emparejado o con el que de otro modo no se puede interactuar, y recuperar y mostrar datos relacionados con el objeto. El dispositivo principal 110 puede identificar el objeto pasivo (304) y recuperar datos relacionados con el objeto identificado y mostrar los datos en el dispositivo principal 110 (306). El objeto pasivo 190 puede ser cualquier objeto que pueda ser registrado por la cámara 112 del dispositivo principal 110, incluidos los dispositivos sin conectividad, tales como reloj, grapadora o automóvil; dispositivos con conectividad que no se utilizan, por ejemplo, una cámara con Bluetooth; objetos como un lápiz, una piedra o una mesa; medios impresos o digitales, como revistas, capturas de pantalla; partes del cuerpo, como la muñeca o el pie; u otro objeto registrado, como un color o textura.
[0034] El objeto pasivo 190 puede ser identificado a partir de su aspecto visual. La identificación puede basarse en imágenes específicas del objeto pasivo, por ejemplo, que fueron tomadas previamente por el usuario, un modelo tridimensional texturizado del objeto pasivo o una categoría general de imágenes, como una imagen general de un reloj, a diferencia de una marca específica de reloj. El usuario puede proporcionar información adicional para definir la imagen, como etiquetar la imagen como "reloj" o proporcionar un PIN para objetos o categorías de objetos específicos. La información adicional proporcionada por el usuario puede introducirse una vez, por ejemplo, durante el entrenamiento del dispositivo principal 110, y la identificación posterior utilizando la información introducida es automática. Además, el objeto pasivo puede incluir un marcador visual que se escanea y se utiliza para limitar la búsqueda de identificación, por ejemplo, por categoría, subcategoría, marca, género o cualquier combinación de los mismos. La identificación puede ser realizada por el dispositivo principal 110 o de forma remota, por ejemplo, a través de la red 102 (Fig. 1). La imagen mostrada en el dispositivo principal 110 del objeto pasivo puede mostrar que el objeto pasivo se ha identificado mediante el aumento de la imagen, por ejemplo, haciendo que el objeto pasivo brille o delineando el objeto pasivo. Si lo desea, el usuario puede seleccionar el objeto pasivo a identificar y el tipo de datos a mostrar. Los datos pueden mostrarse automáticamente. La selección del objeto pasivo a identificar puede ser realizada una vez por el usuario, y el posterior escaneo del objeto pasivo ocasionan la identificación automática. La relación entre el objeto pasivo y los datos recuperados puede ser definida por el usuario o definida externa o automáticamente. Además, los datos pueden almacenarse en el dispositivo principal 110 o en una fuente remota y ser recuperados por el dispositivo principal 110, por ejemplo, en la red 102 (Fig. 1). Los datos relacionados pueden tener la forma de una aplicación que se inicia, como una aplicación de calendario. De forma alternativa, una aplicación puede recuperarse o desbloquearse basándose en la imagen del objeto pasivo. Los datos relacionados pueden ser información relevante para el objeto pasivo, como instrucciones o información de ayuda. Los datos relacionados pueden proporcionar acceso o iniciar la descarga de los datos relacionados basándose en la imagen del objeto pasivo. Por ejemplo, escanear una portada de un libro puede descargar automáticamente el audiolibro o el libro digital. Los datos relacionados pueden ser cualquier medio o combinación de medios y pueden incluir, entre otros, imágenes bidimensionales o tridimensionales, animación, vídeo, sonido, retroalimentación háptica u otros datos sensoriales.
[0035] A modo de ejemplo, el usuario puede definir dentro del dispositivo principal 110 que una imagen de reloj del usuario 190 inicia automáticamente una aplicación de calendario y muestra el calendario del usuario en el dispositivo principal 110, como se ilustra en la Fig. 12. De forma alternativa, el usuario puede personalizar las relaciones entre un objeto pasivo y los datos recuperados, como usar una imagen del anillo de bodas del usuario para abrir imágenes de la boda del usuario. El dispositivo principal 110 puede ser entrenado para identificar un objeto pasivo personal, como un reloj, anillo, grapadora, automóvil, etc. de un usuario a través de un proceso que incluye escanear el objeto pasivo e introducir el nombre del dispositivo y los datos deseados para relacionarlos con el objeto pasivo, que a continuación son correlacionados con el objeto pasivo por el dispositivo principal 110.
[0036] Además, los datos relacionados que se recuperan para un objeto pasivo 190 pueden definirse externa o automáticamente. Por ejemplo, las Fig. 13A y 13B ilustran un ejemplo en el que el dispositivo principal 110 escanea n objeto pasivo 190 (Fig. 13A), como un DVR no emparejable, y los datos relacionados en forma de instrucciones de funcionamiento 192, como las instrucciones de funcionamiento, se recuperan de la red 102, y son mostradas automáticamente por el dispositivo principal 110 (Fig. 13B). Se identifica el DVR específico, pero no es necesaria ninguna conexión o emparejamiento para obtener las instrucciones de funcionamiento u otra información para el DVR específico de la red 102. Las instrucciones de funcionamiento 192 pueden mostrarse estrechamente alineadas con la imagen como se ilustra en la Fig. 13B.
[0037] Las Fig. 14A y 14B ilustran un ejemplo en el que el dispositivo principal 110 escanea un objeto pasivo 190, como un anuncio de una película, y en este ejemplo como se recupera y se muestra el logotipo de Dark Knight® (Fig. 14A) y los datos relacionados (192) con Dark Knight®. Por ejemplo, la película Dark Knight® puede automáticamente recuperarse y mostrarse en el dispositivo principal 110 como se muestra en la Fig. 14B. De forma alternativa, se puede mostrar otra información relacionada con el objeto escaneado, como ubicaciones y horarios que muestra la película Dark Knight®. Si se desea, la imagen del objeto pasivo 190 puede basarse en la apariencia visual, por ejemplo, el logotipo mismo, o puede basarse parcial o completamente en un marcador visual 194 para facilitar la identificación del objeto pasivo.
[0038] En otro modo de realización, el dispositivo principal 110 puede interactuar con un dispositivo objeto emparejable 180 y proporcionar datos obtenidos a partir de una imagen de otro dispositivo objeto, que puede ser emparejables o pasivo, al dispositivo objeto 180. En un modo de realización, puede haber más de un dispositivo objeto del que se obtienen los datos y/o más de un dispositivo objeto 180 objetivo. Por ejemplo, como se ilustra en las Fig. 15A, 15B y 15C, un dispositivo principal 110 puede escanear un objeto pasivo 190 (como un anuncio de Dark Knight®) (Fig. 15A) e identificar y obtener datos basados en la imagen del objeto pasivo como se analizó anteriormente. El usuario puede seleccionar los datos que se pasarán a un dispositivo objeto objetivo 180 emparejado 116, tal como un televisor (Fig. 15B), y los datos, por ejemplo, la película, se pasan automáticamente al dispositivo objeto 180 (Fig. 15C). El dispositivo principal 110 puede recuperar los datos y pasarlos al dispositivo objeto 180 o, de forma alternativa, el dispositivo principal 110 puede proporcionar instrucciones al dispositivo objeto 180 para recuperar los datos por sí mismo.
[0039] Por lo tanto, el dispositivo principal 110 puede ser utilizado para transmitir órdenes al dispositivo objeto 180 basándose en la imagen de uno o más dispositivos objeto, pasivos o emparejables. Por ejemplo, el dispositivo principal 110 puede escanear una marca específica de zapatillas para correr, a continuación escanear un reproductor de mp3 y, en respuesta, descargar automáticamente una lista de reproducción específica, por ejemplo, música para hacer ejercicio, al reproductor de mp3. En un modo de realización, el dispositivo principal 110 descarga los datos, por ejemplo, música, y pasa los datos al dispositivo objeto, o de forma alternativa, indica al dispositivo objeto que recupere los datos por sí mismo. Para las selecciones múltiples, la cámara puede apuntar a los objetos por un corto período de tiempo, o el usuario puede interactuar con la imagen, por ejemplo, pulsando o manteniendo pulsado un botón, o usando un gesto para indicar que se inicie o pare una multiselección. El usuario puede seleccionar los dispositivos objeto en las imágenes, los dispositivos objeto pueden seleccionarse automáticamente, o el usuario puede seleccionar los dispositivos objeto una vez, y la selección posterior es automática. La acción que ocurre en respuesta a la selección múltiple puede ser definida por el usuario o definida externamente.
[0040] Aunque la presente invención se ilustra en relación con modos de realización específicos con propósitos de instrucción, la presente invención no se limita a los mismos. Se pueden realizar diversas adaptaciones y modificaciones sin apartarse del alcance de las reivindicaciones.

Claims (14)

REIVINDICACIONES
1. Un procedimiento realizado por un dispositivo principal (110), comprendiendo el procedimiento:
escanear (202) un dispositivo objeto (180) con el dispositivo principal (110) y mostrar la imagen del dispositivo objeto en el dispositivo principal (110);
identificar (204) el dispositivo objeto usando la imagen del dispositivo objeto (180);
descubrir el dispositivo objeto (180) intercambiando mensajes de descubrimiento entre el dispositivo principal (110) y el dispositivo objeto (180);
tras el descubrimiento, emparejar con el dispositivo objeto (180) e interactuar (208) con el dispositivo objeto (180) directamente con el dispositivo principal (110) basándose en la identidad del dispositivo objeto (180); caracterizado por que el procedimiento comprende además:
emparejar el dispositivo principal (110) con un segundo dispositivo objeto (180A); y
usar el dispositivo principal (110) para emparejar el dispositivo objeto (180) y el segundo dispositivo objeto (180A).
2. El procedimiento según la reivindicación 1, que además comprende:
mostrar en el dispositivo principal (110) una interfaz para controlar el dispositivo objeto (180, 180A).
3. Un dispositivo principal (110), que comprende:
una cámara (112) operable para escanear un dispositivo objeto (180);
un transceptor inalámbrico (130) capaz de transmitir y recibir señales inalámbricas hacia y desde el dispositivo objeto (180);
un procesador (122) conectado a la cámara (112) y al transceptor inalámbrico (130);
memoria (124) conectada al procesador (122); y
software mantenido en la memoria (124) y ejecutado en el procesador (122) para hacer que el procesador (122) identifique el dispositivo objeto (180) utilizando una imagen proporcionada por la cámara (112), descubra el dispositivo objeto (180) intercambiando mensajes de descubrimiento entre el dispositivo principal (110) y el dispositivo objeto (180), y al descubrirlo, empareje con el dispositivo objeto (180) e interactúe con el dispositivo objeto identificado directamente con el transceptor inalámbrico (130), caracterizado por que además hace que
empareje el dispositivo principal (110) con un segundo dispositivo objeto (180A), y use el dispositivo principal (110) para emparejar el dispositivo objeto (180) y el segundo dispositivo objeto (180A).
4. El dispositivo principal (110) de la reivindicación 3, que comprende además una pantalla digital acoplada al procesador (122), la pantalla digital siendo capaz de mostrar datos relacionados con el dispositivo objeto (180, 180A) en el dispositivo principal (110).
5. El dispositivo principal (110) de la reivindicación 3, en el que el software hace que el procesador (122):
identifique el dispositivo objeto (180,180A) como emparejable usando la imagen del dispositivo objeto (180, 180A); y
empareje el dispositivo principal (110) con el dispositivo objeto (180, 180A).
6. El dispositivo principal (110) de la reivindicación 3, en el que el software hace que el procesador:
muestre en el dispositivo principal una interfaz para controlar el dispositivo objeto (180, 180A).
7. El dispositivo principal de la reivindicación 3, en el que el transceptor inalámbrico (130) es capaz de recibir datos de radiodifusión desde el dispositivo objeto (180, 180A), los datos de radiodifusión incluyendo información sobre una apariencia visual del dispositivo objeto, en el que se identifica el dispositivo objeto comparando la imagen del dispositivo objeto con los datos de radiodifusión del dispositivo objeto.
8. El dispositivo principal (110) de la reivindicación 7, en el que la información sobre la apariencia visual del dispositivo objeto comprende al menos uno de una imagen y un modelo tridimensional texturizado del dispositivo objeto.
9. El dispositivo principal (110) de la reivindicación 3 en el que el transceptor inalámbrico (130) es capaz de: recibir datos de radiodifusión de una pluralidad de dispositivos objeto, los datos de radiodifusión incluyendo información sobre apariencias visuales de los dispositivos objeto.
10. El dispositivo principal (110) de la reivindicación 9, el dispositivo principal (110) que comprende además una pantalla digital (114) y una interfaz de usuario, y en el que el software hace que el procesador (122) identifique el dispositivo objeto usando la imagen del objeto dispositivo:
filtrando los datos de radiodifusión utilizando la imagen del dispositivo objeto (180) para producir un subconjunto de datos de radiodifusión;
mostrando el subconjunto de datos de radiodifusión en la pantalla digital; e
identificando el dispositivo objeto mediante selección del usuario del subconjunto de datos de radiodifusión mostrado utilizando la interfaz de usuario.
11. El dispositivo principal (110) de la reivindicación 3, que comprende además un transceptor de interfaz de red (140) capaz de interconectar el dispositivo objeto con una red de área amplia a través del dispositivo principal (110).
12. Un sistema que comprende un dispositivo principal (110), un dispositivo objeto (180) y un segundo dispositivo objeto (180A), con el dispositivo principal (110), que comprende:
medios para escanear el dispositivo objeto (180, 180A);
medios para mostrar la imagen del dispositivo objeto (180, 180A) en el dispositivo principal (110); medios para descubrir el dispositivo objeto (180, 180A) intercambiando mensajes de descubrimiento entre el dispositivo principal (110) y el dispositivo objeto (180, 180A);
medios para emparejar con el dispositivo objeto (180, 180A) y medios para identificar el dispositivo objeto (180, 180A) usando la imagen del dispositivo objeto (180, 180A) tras el descubrimiento; y
medios para interconectar el dispositivo principal (110) directamente con el dispositivo objeto identificado (180, 180A); y
en el que los medios para interconectar están configurados para emparejar el dispositivo principal (110) con el dispositivo objeto (180) y para emparejar el dispositivo principal (110) con el segundo dispositivo objeto (180A), el sistema que además comprende medios para emparejar el dispositivo objeto (180) con el segundo dispositivo objeto (180A) a través del dispositivo principal (110).
13. El sistema de la reivindicación 12, medios para mostrar en el dispositivo principal (110) una interfaz para controlar el dispositivo objeto (180, 180A).
14. Un medio legible por ordenador que incluye código de programa almacenado en el mismo, que comprende código de programa para realizar el procedimiento de cualquiera de las reivindicaciones 1 a 2.
ES10735401T 2009-07-17 2010-07-16 Interconexión automática entre un dispositivo principal y un dispositivo objeto Active ES2793332T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US22655209P 2009-07-17 2009-07-17
US22654509P 2009-07-17 2009-07-17
US12/786,886 US8818274B2 (en) 2009-07-17 2010-05-25 Automatic interfacing between a master device and object device
PCT/US2010/042318 WO2011009069A2 (en) 2009-07-17 2010-07-16 Automatic interfacing between a master device and object device

Publications (1)

Publication Number Publication Date
ES2793332T3 true ES2793332T3 (es) 2020-11-13

Family

ID=42990159

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10735401T Active ES2793332T3 (es) 2009-07-17 2010-07-16 Interconexión automática entre un dispositivo principal y un dispositivo objeto

Country Status (9)

Country Link
US (3) US8818274B2 (es)
EP (3) EP2597796A3 (es)
JP (2) JP2012533802A (es)
KR (3) KR20120049272A (es)
BR (1) BR112012001134A2 (es)
ES (1) ES2793332T3 (es)
HU (1) HUE048977T2 (es)
TW (1) TWI423709B (es)
WO (1) WO2011009069A2 (es)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7953983B2 (en) 2005-03-08 2011-05-31 Microsoft Corporation Image or pictographic based computer login systems and methods
KR20100015246A (ko) * 2008-08-04 2010-02-12 삼성전자주식회사 디스플레이부를 구비한 저장장치 및 정보 디스플레이 방법
US8458485B2 (en) 2009-06-17 2013-06-04 Microsoft Corporation Image-based unlock functionality on a computing device
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
US10104183B2 (en) * 2010-06-22 2018-10-16 Microsoft Technology Licensing, Llc Networked device authentication, pairing and resource sharing
US20120005632A1 (en) * 2010-06-30 2012-01-05 Broyles Iii Paul J Execute a command
EP2735142B1 (en) * 2010-10-20 2018-09-05 The Procter and Gamble Company Article utilization
US9942304B2 (en) * 2011-01-08 2018-04-10 N99 Llc Remote control authority and authentication
US10778747B2 (en) * 2011-01-08 2020-09-15 N99 Llc Remote control authority and authentication
AU2011202415B1 (en) * 2011-05-24 2012-04-12 Microsoft Technology Licensing, Llc Picture gesture authentication
US20120309289A1 (en) * 2011-06-06 2012-12-06 Apple Inc. Techniques for facilitating interoperation between an accessory and multiple devices
US8989280B2 (en) * 2011-06-30 2015-03-24 Cable Television Laboratories, Inc. Frame identification
JP5772540B2 (ja) * 2011-11-23 2015-09-02 富士通株式会社 携帯型端末装置、エリア指定方法及びエリア指定プログラム
EP2602691A1 (en) * 2011-12-05 2013-06-12 Alcatel Lucent Method for gesture control, gesture server device and sensor input device
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
TW201352001A (zh) * 2012-06-11 2013-12-16 Quanta Comp Inc 多媒體互動系統及方法
TWI526041B (zh) * 2012-07-17 2016-03-11 廣達電腦股份有限公司 互動系統及互動方法
CN103576848B (zh) * 2012-08-09 2016-07-13 腾讯科技(深圳)有限公司 手势操作方法和手势操作装置
US9373302B2 (en) 2012-08-10 2016-06-21 Blackberry Limited Stacked device position identification
WO2014041235A1 (en) * 2012-09-14 2014-03-20 Nokia Corporation Remote control system
WO2014045860A1 (ja) * 2012-09-24 2014-03-27 Necカシオモバイルコミュニケーションズ株式会社 情報機器、対向機器、通信システム、情報機器の制御方法及びプログラム
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
CN103905092A (zh) * 2012-12-27 2014-07-02 鸿富锦精密工业(武汉)有限公司 具有蓝牙功能的装置及蓝牙连接方法
US20140355389A1 (en) * 2013-05-29 2014-12-04 Nokia Corporation Method and apparatus for establishing device communication
US9373208B2 (en) * 2013-09-11 2016-06-21 Sony Corporation Secure remote control for operating closures such as garage doors
US20160182930A1 (en) * 2013-09-13 2016-06-23 Isabella V. Ortiz Systems and methods for enabling simultaneous second screen data access during ongoing primary screen programming
US9245192B2 (en) * 2013-09-20 2016-01-26 Here Global B.V. Ad collateral detection
KR102245362B1 (ko) * 2014-01-24 2021-04-28 엘지전자 주식회사 서로 다른 통신 프로토콜을 사용하는 디바이스들 간 무선 네트워크 연결을 제어하기 위한 방법 및 이를 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
US10204065B2 (en) 2014-02-07 2019-02-12 Ascensia Diabetes Care Holdings Ag Methods and apparatus for a multiple master bus protocol
TWI563853B (en) * 2014-02-27 2016-12-21 Beseye Cloud Security Co Ltd Surveillance system and the operation process thereof
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
WO2015156812A1 (en) * 2014-04-10 2015-10-15 Hewlett-Packard Development Company, L.P. Connection classification
US9712948B2 (en) * 2014-04-30 2017-07-18 Avago Technologies General Ip (Singapore) Pte. Ltd. Image triggered pairing
US9679538B2 (en) * 2014-06-26 2017-06-13 Intel IP Corporation Eye display interface for a touch display device
WO2016017945A1 (en) * 2014-07-29 2016-02-04 Samsung Electronics Co., Ltd. Mobile device and method of pairing the same with electronic device
KR102437104B1 (ko) * 2014-07-29 2022-08-29 삼성전자주식회사 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
US9392398B2 (en) * 2014-09-30 2016-07-12 Apple Inc. Wireless proximity pairing of user-interface devices
KR102197851B1 (ko) * 2014-10-20 2021-01-04 한국전자통신연구원 단말간 직접 통신에서 대상 발견 방법 및 장치
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
KR102302327B1 (ko) * 2014-12-08 2021-09-15 엘지전자 주식회사 단말 장치, 정보 표시 시스템 및 단말 장치의 제어 방법
WO2016115068A1 (en) * 2015-01-13 2016-07-21 Thomson Licensing Atsc 3.0 display discovery via a mobile secondary device
JP6473014B2 (ja) * 2015-02-27 2019-02-20 トッパン・フォームズ株式会社 情報提供システム及び情報提供装置
US10353949B2 (en) * 2015-09-02 2019-07-16 David Webster Optically initiated configuration and cryptographic test key transfer for testing interconnected electronic devices
TWI563407B (en) * 2015-09-11 2016-12-21 Noodoe Corp Methods and systems for registering detection of electronic devices, and related computer program products
CN105204742B (zh) * 2015-09-28 2019-07-09 小米科技有限责任公司 电子设备的控制方法、装置及终端
US10061552B2 (en) * 2015-11-25 2018-08-28 International Business Machines Corporation Identifying the positioning in a multiple display grid
US10334076B2 (en) * 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
US10120635B2 (en) * 2016-03-09 2018-11-06 Samsung Electronics Co., Ltd. Configuration and operation of display devices including device management
CN108353210B (zh) 2016-06-08 2021-01-29 华为技术有限公司 处理方法与终端
US10672149B2 (en) 2016-06-22 2020-06-02 Huawei Technologies Co., Ltd. Head mounted display device and processing method of head mounted display device
KR101715142B1 (ko) * 2016-08-29 2017-03-14 주식회사 리얼야구존 모바일 기기를 이용하는 스크린 야구 경기 방법
US10560844B2 (en) * 2017-03-15 2020-02-11 International Business Machines Corporation Authentication of users for securing remote controlled devices
US20190034152A1 (en) * 2017-07-25 2019-01-31 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Automatic configuration of display settings based on a detected layout of multiple display devices
US10725629B2 (en) * 2018-06-25 2020-07-28 Google Llc Identifying and controlling smart devices
WO2020022780A1 (en) * 2018-07-25 2020-01-30 Samsung Electronics Co., Ltd. Method and apparatus for establishing device connection
US11784845B2 (en) 2018-09-28 2023-10-10 Qualcomm Incorporated System and method for disambiguation of Internet-of-Things devices
KR102137194B1 (ko) * 2018-10-31 2020-07-24 엘지전자 주식회사 이동 단말기
US10432272B1 (en) 2018-11-05 2019-10-01 XCOM Labs, Inc. Variable multiple-input multiple-output downlink user equipment
US10812216B2 (en) 2018-11-05 2020-10-20 XCOM Labs, Inc. Cooperative multiple-input multiple-output downlink scheduling
US10659112B1 (en) 2018-11-05 2020-05-19 XCOM Labs, Inc. User equipment assisted multiple-input multiple-output downlink configuration
US10756860B2 (en) 2018-11-05 2020-08-25 XCOM Labs, Inc. Distributed multiple-input multiple-output downlink configuration
US11063645B2 (en) 2018-12-18 2021-07-13 XCOM Labs, Inc. Methods of wirelessly communicating with a group of devices
US10756795B2 (en) 2018-12-18 2020-08-25 XCOM Labs, Inc. User equipment with cellular link and peer-to-peer link
US11330649B2 (en) 2019-01-25 2022-05-10 XCOM Labs, Inc. Methods and systems of multi-link peer-to-peer communications
EP3690609B1 (en) * 2019-01-30 2021-09-22 DENTSPLY SIRONA Inc. Method and system for controlling dental machines
US10756767B1 (en) 2019-02-05 2020-08-25 XCOM Labs, Inc. User equipment for wirelessly communicating cellular signal with another user equipment
JPWO2020217909A1 (es) * 2019-04-23 2020-10-29
US11348320B2 (en) 2020-04-02 2022-05-31 Samsung Electronics Company, Ltd. Object identification utilizing paired electronic devices
EP4097641A4 (en) * 2020-04-02 2023-06-28 Samsung Electronics Co., Ltd. Electronic device and method for object identification utilizing paired electronic device
TWI824729B (zh) * 2021-10-15 2023-12-01 仁寶電腦工業股份有限公司 主機裝置的授權方法、非暫態電腦可讀取儲存媒體及主機裝置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
JPH0984147A (ja) 1995-09-08 1997-03-28 Sony Corp リモートコントローラ、電子機器、及び電子機器システム
US6353450B1 (en) * 1999-02-16 2002-03-05 Intel Corporation Placing and monitoring transparent user interface elements in a live video stream as a method for user input
US6396475B1 (en) * 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
JP3756741B2 (ja) 2000-08-21 2006-03-15 株式会社東芝 情報交換装置およびキャッシュレジスタ装置
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US6783071B2 (en) * 2001-06-18 2004-08-31 Symbol Technologies, Inc Scanner pairing in a bluetooth POS network
JP3761505B2 (ja) 2002-03-04 2006-03-29 株式会社東芝 通信システム、無線通信端末及び無線通信装置
KR100530233B1 (ko) 2003-02-17 2005-11-22 삼성전자주식회사 애드호크 네트워크로 연결가능한 기기를 사용자에게알려주어 사용자의 선택에 의해 효율적인 연결 설정을가능하게 해주는 블루투스 무선통신 장치 및 통신방법
EP1571584A1 (en) * 2004-03-03 2005-09-07 Honda Research Institute Europe GmbH Integrating visual and object information in a pervasive computing environment
JP2005268941A (ja) 2004-03-16 2005-09-29 Sony Corp 遠隔制御装置、遠隔制御方法及びそのプログラム
US7602420B2 (en) * 2004-08-06 2009-10-13 Canon Kabushiki Kaisha Image capture apparatus, method for controlling the same and computer program
JP4745737B2 (ja) * 2004-08-06 2011-08-10 キヤノン株式会社 撮像装置、通信システム、伝送方法、撮像装置の制御方法、及びコンピュータプログラム
JP2006081028A (ja) 2004-09-10 2006-03-23 Kyocera Mita Corp 遠隔操作システム、通信装置及び電気機器
US20060190812A1 (en) 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
US7519200B2 (en) 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
EP1897010A1 (en) 2005-06-30 2008-03-12 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
US20070047435A1 (en) * 2005-08-31 2007-03-01 Motorola, Inc. Advertising availability for ad-hoc networking based on stored device history
KR101170081B1 (ko) 2005-09-07 2012-08-01 삼성전자주식회사 움직임에 대응되는 리모콘 신호를 전송하는 리모트컨트롤러
JP4676303B2 (ja) * 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
AU2007227214A1 (en) * 2006-03-20 2007-09-27 Absolute Software Corporation Method for determining identification of an electronic device
US20080125040A1 (en) * 2006-11-29 2008-05-29 Apple Computer, Inc. Location discovery using bluetooth
JP5064091B2 (ja) 2007-04-13 2012-10-31 株式会社Pfu スキャナ装置、および、画像読取表示方法
KR101375481B1 (ko) 2007-07-06 2014-03-19 삼성전자주식회사 통신 시스템에서 통신 모드 결정 방법 및 장치
US8059573B2 (en) 2007-07-30 2011-11-15 Qualcomm Incorporated Method of pairing devices
WO2009046574A1 (en) 2007-10-11 2009-04-16 Motorola, Inc. Method and system for contact management and organization
TWI421690B (zh) * 2007-11-21 2014-01-01 Ind Tech Res Inst 智慧型遠端介面裝置、系統及其使用方法
JP5136040B2 (ja) 2007-12-13 2013-02-06 日本電気株式会社 携帯端末及びそれを用いた通信方法並びにプログラム
KR101442544B1 (ko) * 2007-12-18 2014-09-23 엘지전자 주식회사 이동 단말기 및 그의 무선기기 표시 방법
US20090176451A1 (en) * 2008-01-04 2009-07-09 Microsoft Corporation Encoded color information facilitating device pairing for wireless communication
TWI346489B (en) * 2008-01-09 2011-08-01 Inventec Corp A nic and method of booting of the remote device
EP2401865B1 (en) * 2009-02-27 2020-07-15 Foundation Productions, Llc Headset-based telecommunications platform
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device

Also Published As

Publication number Publication date
US20150138376A1 (en) 2015-05-21
EP2597796A1 (en) 2013-05-29
CN102625981A (zh) 2012-08-01
JP6026474B2 (ja) 2016-11-16
US20140327786A1 (en) 2014-11-06
KR101755147B1 (ko) 2017-07-19
JP2012533802A (ja) 2012-12-27
US8971811B2 (en) 2015-03-03
KR101583245B1 (ko) 2016-01-08
EP3678309A1 (en) 2020-07-08
TWI423709B (zh) 2014-01-11
EP2454834A2 (en) 2012-05-23
KR20140090263A (ko) 2014-07-16
US20110016405A1 (en) 2011-01-20
TW201110784A (en) 2011-03-16
EP2454834B1 (en) 2020-03-25
KR20160006262A (ko) 2016-01-18
JP2015038740A (ja) 2015-02-26
BR112012001134A2 (pt) 2016-02-23
EP2597796A3 (en) 2013-12-11
US9667817B2 (en) 2017-05-30
WO2011009069A2 (en) 2011-01-20
KR20120049272A (ko) 2012-05-16
US8818274B2 (en) 2014-08-26
WO2011009069A3 (en) 2011-04-28
HUE048977T2 (hu) 2020-08-28

Similar Documents

Publication Publication Date Title
ES2793332T3 (es) Interconexión automática entre un dispositivo principal y un dispositivo objeto
KR102308415B1 (ko) 메시징 애플리케이션들을 위한 채팅 독
US10671232B2 (en) Information processing apparatus, and part generating and using method
CN104838642B (zh) 用创建者身份或场景标记媒体的方法和设备
KR101606727B1 (ko) 휴대 단말기 및 그 동작 방법
KR20220024994A (ko) 통신 세션에서 애니메이션 오버레이들의 생성
JP5766019B2 (ja) 2眼撮像装置、その制御方法、および、制御プログラムおよびコンピュータ読み取り可能な記録媒体
KR20150009529A (ko) 소셜 정보를 디스플레이하기 위한 다기능 손목 밴드
US9892249B2 (en) Methods and devices for authorizing operation
US20190370092A1 (en) Direct input from a remote device
US20230284000A1 (en) Mobile information terminal, information presentation system and information presentation method
CN115297405A (zh) 一种音频输出方法及终端设备
CN110209316B (zh) 类别标签显示方法、装置、终端及存储介质
KR20170001219A (ko) 이동 단말기 및 그의 잠금 해제 방법
CN114285938B (zh) 一种设备推荐方法、装置及计算机可读存储介质
CN115238255A (zh) 解锁方法及电子设备
US20240203312A1 (en) System and method for modifying display content to obscure screen capture
CN106407818A (zh) 网络数据包加密方法及装置