MX2014007234A - Soporte de multiples modos de interaccion de usuario basados en atencion. - Google Patents
Soporte de multiples modos de interaccion de usuario basados en atencion.Info
- Publication number
- MX2014007234A MX2014007234A MX2014007234A MX2014007234A MX2014007234A MX 2014007234 A MX2014007234 A MX 2014007234A MX 2014007234 A MX2014007234 A MX 2014007234A MX 2014007234 A MX2014007234 A MX 2014007234A MX 2014007234 A MX2014007234 A MX 2014007234A
- Authority
- MX
- Mexico
- Prior art keywords
- user
- server
- user interaction
- information
- attention
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/654—Transmission by server directed to the client
- H04N21/6543—Transmission by server directed to the client for forcing some client operations, e.g. recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/654—Transmission by server directed to the client
- H04N21/6547—Transmission by server directed to the client comprising parameters, e.g. for client setup
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Paints Or Removers (AREA)
- User Interface Of Digital Computer (AREA)
- Prostheses (AREA)
Abstract
La presente invención monitorea las actividades de un usuario para determinar qué tanta atención está poniendo a uno o más dispositivos. Con base en la información reunida (300, 302) acerca del "perfil de atención" actual del usuario, se establece un "parámetro de interacción del usuario" (304) que refleja donde se enfoca la atención del usuario y, de manera ideal, qué tanta de su atención se da a cada dispositivo. Después, con base en el parámetro de interacción del usuario, la interfaz de usuario de al menos uno de los dispositivos del usuario está configurada (306) para optimizar las interacciones del usuario, dada la cantidad de atención que está dando actualmente a esta interfaz de usuario. Si el usuario está dando la mayoría de su atención a la televisión (114), por ejemplo, entonces la interfaz de usuario de un dispositivo complementario (108, 116) puede estar configurada para enfatizar los tipos de interacciones disponibles a un usuario que no está viendo de manera activa el dispositivo complementario (108, 116).
Description
SOPORTE DE MÚLTIPLES MODOS DE INTERACCIÓN DE USUARIO BASADOS
EN ATENCIÓN
CAMPO DE LA INVENCIÓN
La presente invención se refiere generalmente a las comunicaciones de computadora y, más particularmente, a la televisión interactiva.
ANTECEDENTES DE LA INVENCIÓN
Debido a que los dispositivos de comunicaciones personales (p.ej., teléfonos celulares) se desarrollan para soportar mayor y mayor funcionalidad, la gente está utilizándolos para hacer mucho más qué hablar. Como es bien sabido, estos dispositivos ahora usualmente permiten a sus usuarios crear archivos de medios (p.ej., al tomar una fotografía o grabar un video utilizando una cámara en el dispositivo), descargar archivos de medios desde servidores remotos (a través de una interfaz de web soportada por el dispositivo), y acceder a aplicaciones interactivas.
Sin embargo, aunque la gente pasa más tiempo en línea, los medios tradicionales siguen siendo muy importantes. De hecho, en lugar de simplemente reemplazar el tiempo en medios tradicionales con tiempo en línea, muchas personas están iniciando la "multi-tarea" (mul ti -task) , es decir, combinar
medios tradicionales y nuevos. Por ejemplo, mientras ven televisión, su dispositivo personal de comunicaciones se vuelve un "dispositivo de compañía" que despliega contenido a menudo, pero no siempre, relacionado con el contenido mostrado en su televisión. Similarmente, mientras están enganchados en una aplicación interactiva en su dispositivo de compañía, permanecen al menos periféricamente al tanto del contenido que se está mostrando en la televisión.
Las televisiones y los dispositivos de compañía no están diseñados para optimizar el mismo tipo de interacciones de usuario. La terminología refleja esta distinción: la programación televisiva está dirigida a "espectadores", mientras que los dispositivos de compañía invitan "usuarios". Es decir, que la programación televisiva está diseñada, en su mayoría, para ser vista de manera pasiva mientras el espectador "se reclina" (lean-back) en su sofá. Los dispositivos de compañía, que soportan aplicaciones completamente interactivas, invitan a los usuarios a "inclinarse" (lean forward) para interactuar más activamente con las aplicaciones.
BREVE DESCRIPCIÓN DE LA INVENCIÓN
Las consideraciones anteriores, y otras, son abordadas por la presente invención, la cual puede entenderse al referirse a
la especificación, dibujos, y reivindicaciones. La presente invención monitorea las actividades de un usuario para determinar qué tanta atención está poniendo a uno o más dispositivos (p.ej., una televisión y un dispositivo de compañía tal como un teléfono inteligente { smart phone) , computadora tablet, o consola de juegos). Con base en la información reunida acerca del "perfil de atención" actual del usuario, se establece un "parámetro de interacción del usuario" que refleja donde se enfoca la atención del usuario y, de manera ideal, qué tanta de su atención se da a cada dispositivo. Después, con base en el parámetro de interacción del usuario, la interfaz de usuario de al menos uno de los dispositivos del usuario está configurada para optimizar las interacciones del usuario, dada la cantidad de atención que está dando actualmente a esta interfaz de usuario.
Pueden utilizarse muchos tipos de información al establecer el parámetro de interacción del usuario incluyendo ajustes explícitos del usuario, un historial de las interacciones del usuario con varios dispositivos, y las interacciones recientes del usuario con los dispositivos.
Si, por ejemplo, el usuario está dedicando la mayoría de su atención a la televisión entonces la interfaz del usuario del dispositivo de compañía puede configurarse para enfatizar los tipos de interacciones disponibles para un usuario que no
está viendo activamente el dispositivo de compañía. Es decir, un sensor de toque o de movimiento puede enfatizarse sobre un teclado de entrada del usuario. La presentación de la pantalla puede hacerse menos rica con menos iconos, pero potencialmente más brillantes, para atrapar el ojo del usuario si es apropiado.
Cuando un dispositivo de usuario recibe contenido de medios (p.ej., un anuncio o un correo electrónico), la presentación del dispositivo de ese contenido depende del parámetro de interacción del usuario. El dispositivo puede incluso seleccionar contenido para presentar (o ejecutar una aplicación) con base en el perfil de atención actual del usuario.
Se contemplan varios tipos de dispositivos que representan aspectos de la presente invención. Algunos dispositivos de usuarios son lo suficientemente sofisticados para reunir información del perfil de atención, establecer el parámetro de interacción del usuario, y después responder a los ajustes apropiados. Otros dispositivos podrían no ser capaces de establecer el parámetro de interacción del usuario pero pueden responder apropiadamente si otro dispositivo les envía el parámetro. Si se le dice el parámetro a un servidor remoto (y posiblemente otra información relacionada), éste puede responder enviando contenido apropiado (o una orden) a
los dispositivos del usuario. Otro tipo de servidor remoto puede reunir información del perfil de atención desde los dispositivos del usuario y determinar por si mismo el parámetro de interacción del usuario. Los dispositivos de todos estos tipos, y otros, pueden trabajar juntos para mejorar la utilidad de la presente invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Aunque las reivindicaciones anexas describen las características de la presente invención con particularidad, la invención, junto con sus objetivos y ventajas, puede entenderse mejor a partir de la siguiente descripción detallada tomada en conjunción con los dibujos de acompañamiento de los cuales:
La Figura 1 es una vista en conjunto de un entorno representativo en el cual la presente invención puede practicarse.
La Figura 2 es un esquema generalizado de algunos de los dispositivos mostrados en la Figura 1.
Las Figuras 3a y 3b forman juntas un diagrama de flujo de un método representativo de un dispositivo del usuario final que establece el parámetro de interacción del usuario.
La Figura 4 es un diagrama de flujo de un método representativo de un dispositivo de usuario final que
responde a un parámetro de interacción del usuario enviado a éste.
La Figura 5 es un diagrama de flujo de un método representativo de un servidor que responde a un parámetro de interacción del usuario enviado a éste.
La Figura 6 es un diagrama de flujo de un método representativo de un servidor que establece el parámetro de interacción del usuario.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
Respecto a los dibujos, en donde numerales de referencia similares se refieren a elementos similares, se ilustra la invención siendo implementada en un entorno adecuado. La siguiente descripción está basada en modalidades de la invención y la invención no debería considerarse limitativa con respecto a modalidades alternativas que no están descritas de manera explícita en este documento.
Los aspectos de la presente invención pueden practicarse en el entorno de comunicaciones representativo 100 de la Figura 1. Los servidores 104, 106 están conectados juntos a través de cualquiera o todas de las varias teenologías de conexión en red 102 conocidas. Algunos de estos servidores 104, 106 pueden ser cabecera ( head-end ) de un sistema de transmisión de televisión por cable 110. Otros pueden ser
servidores web. Para facilitar la ilustración, solo se muestran dos servidores 104, 106, pero numerosos servidores 104, 106 pueden existir y trabajar juntos como se discute más adelante.
Los servidores de cabecera proporcionan, a través de la teenología de conexión en red 102, descarga de medios y servicios de televisión a los dispositivos del usuario final. Un ejemplo de un dispositivo del usuario final es un teléfono celular 108. Este teléfono 108 se comunica inalámbricamente a una estación base inalámbrica (no se muestra pero es conocida en la materia) para acceder a la red telefónica conmutada ( publíc swi tched telephone network) , la internet, u otras redes para acceder a los servicios proporcionados por el servidor de cabecera y los servidores web.
Los dispositivos de usuario final no inalámbricos están soportados por tecnologías de conexión en red de "línea de alambre" (p.ej., fibra, alambre, y cable) 110. Por ejemplo, un receptor de televisión ( set-top box) 112 recibe generalmente programación de televisión desde un servidor de cabecera y proporciona una interfaz de usuario (p.ej., una guía interactiva de programación) para seleccionar y ver contenido desde el servidor de cabecera. Un grabador de video digital (digital video recorder ) (no mostrado) puede almacenar programación para ver más tarde. El contenido de
video puede verse en un monitor de televisión 114. En algunas situaciones, una computadora laptop 116 accede a los servicios con base en la web ya sea de manera inalámbrica o a través de la red de linea de alambre 110. Una puerta de enlace doméstica ( home ga teway) , kiosk, señal digital, o un dispositivo de descarga continua ( restreaming) de medios (no mostrados) son otros dispositivos de usuario final posibles.
(Un dispositivo de descarga continua de medios transfiere contenido entre tipos de redes discrepantes. Por ejemplo, recibe contenido desde un sistema de cable 110 y después transmite ese contenido por un enlace ( link ) de radio local tal como conexión inalámbrica (WiFi) al teléfono celular 108. El dispositivo de descarga continua de medios normalmente opera en ambas direcciones para llevar mensajes entre las redes. En algunas modalidades, los aspectos de la presente invención se practican por un dispositivo de descarga continua de medios)
El usuario puede dividir su atención al interactuar con cualquiera o todos los dispositivos del usuario final 108, 112, 114, 116 casi al mismo tiempo o temporalmente de una manera sobrepuesta. Los ejemplos en la presente discusión normalmente asumen que el usuario está viendo el monitor de la televisión 114 y está posiblemente interactuando con él a través del receptor de televisión 112. Al menos
ocasionalmente, algo de la atención de usuario también se da al teléfono inteligente 108.
Algunos de los dispositivos del usuario final son suficientemente sofisticados para reunir información acerca del perfil de atención del usuario, establecer un parámetro de interacción del usuario que representa ese perfil, y después responde a los ajustes de manera apropiada. Para los propósitos de la presente invención, estos dispositivos se llaman dispositivos de "Clase A", y, en una asignación puramente arbitraria, el teléfono inteligente 108 se toma como representativo de esta clase. (El diagrama de flujo de las Figuras 3a-3b y la discusión de acompañamiento ilustra los funcionamientos de un dispositivo de Clase A.)
Otros dispositivos del usuario final podrían no ser capaces de establecer el parámetro de interacción del usuario pero pueden responder apropiadamente si otro dispositivo le envía el parámetro. Otra vez para los propósitos de la presente invención, estos se llaman dispositivos de "Clase B", y el receptor de televisión 112 se utiliza para representar esta clase (ilustrado por la Figura 4). Todavía otros dispositivos del usuario final no pueden establecer el parámetro de interacción del usuario ni responder al mismo. Aun así, estos dispositivos "Clase C" de materia precedente son importantes en el entorno de las comunicaciones 100
porque pueden obtener algo de la atención del usuario. El monitor de televisión 114 está representado aquí como un dispositivo de Clase C.
Los servidores de "Clase Y", si se les dice el parámetro de interacción del usuario (y posiblemente otra información relacionada), pueden responder enviando contenido apropiado (o una orden) al dispositivo del usuario. (El servidor 104 representa a la Clase Y la cual se ilustra por la Figura 5). Un servidor que puede reunir información del perfil de atención desde los dispositivos del usuario final 108, 112, 114, 116 y determinar el propio parámetro de interacción del usuario es un dispositivo de "Clase Z" y se ilustra por la Figura 6.
Nótese que las distinciones entre las clases de los dispositivos, aunque son útiles para ilustrar los aspectos de la presente invención, no son tanto caso claro del mundo real. Un dispositivo puede operar en una clase en una situación y en otra clase en otras situaciones.
Los dispositivos de todos estos tipos, y otros, pueden trabajar juntos para mejorar la utilidad de la presente invención.
La Figura 2 muestra los componentes principales de un servidor representativo 104, 106 o de un dispositivo del usuario final 108, 112, 114, 116. Las interfaces de redes 200
envían y reciben presentaciones de medios, información relacionada, y peticiones de descargas. Un procesador 202 controla las operaciones del dispositivo y, en particular, soporta los aspectos de la presente invención como se ilustra en las Figuras 3a a la 6, que se discuten más abajo. La interfaz del usuario 204 soporta las interacciones de un usuario (o administrador) con el dispositivo. Los usos específicos de estos componentes se discuten apropiadamente más adelante.
Las Figuras 3a-3b presentan un método para un dispositivo del usuario final de Clase A para establecer y utilizar el parámetro de interacción del usuario. En el paso 300 de la Figura 3a, el dispositivo del usuario final 108 recolecta información acerca de la cantidad de atención que el usuario está dando actualmente a este dispositivo 108. Algo de esta información puede generarse por el propio dispositivo 108. Si, por ejemplo, el dispositivo 108 detecta una cantidad significativa de interacción con su interfaz de usuario 104 (p.ej., un número de pulsaciones de teclado entrados durante el pasado minuto), entonces el usuario está poniendo significativa atención al dispositivo 108. La información del historial o el perfil de un usuario también pueden ser útiles aquí. En algunas modalidades, el usuario puede establecer de manera explícita un parámetro de
atención, p.ej., al mover un software de "control deslizante" ( slider) presentado por la interfaz del usuario 204: el control deslizante da la estimación de qué tanta atención está poniendo el usuario en cada uno de dos (o más) dispositivos del usuario.
El control deslizante, de hecho, puede utilizarse para invalidar la otra información reunida acerca del perfil de atención actual del usuario. Es decir, con el control deslizante el usuario puede dirigir el dispositivo del usuario final 108 para actuar como si estuviera dividiendo su atención en una manera dada, independientemente de si está realmente haciéndolo. (Este mismo efecto invalidador puede lograrse por las preferencias de los ajustes del usuario o una política). Las razones por las que a un usuario le gustaría hacer esto se discuten más abajo en relación al paso 306 en donde se utiliza el parámetro de interacción del usuario.
En el paso 300, el dispositivo 108 puede también recibir información desde "fuera del dispositivo" 108 en sí. Si, por ejemplo, el receptor de televisión 112 nota que el usuario está interactuando activamente con una guía de programación electrónica presentada en el monitor de televisión 114, el receptor de televisión 112 puede enviar esta información al ispositivo 108. Una cámara de cualquiera de los dispositivos
del usuario final 108, 112, 114, 116 puede ver los ojos del usuario y notar hacia donde está mirando. Aun cuando no está disponible tal información directa, la información indirecta puede ayudar. Por ejemplo, el receptor de televisión 112 reporta que, respondiendo a órdenes previas del usuario, está transmitiendo una película en el monitor de televisión 114. Los índices de audiencia en línea muestran que la escena actual es considerada por mucha gente como muy emocionante. Cuando esta información está disponible para el dispositivo del usuario final 108, ese dispositivo 108 puede concluir, ante la ausencia de cualquier información que lo contradiga, que la atención del usuario está enfocada probablemente en el monitor 114. En suma, cualquier información que pueda utilizarse para determinar, o incluso especular acerca, del perfil de atención del usuario puede utilizarse en el paso 300.
El dispositivo del usuario final 108 reúne en el paso 302 la información acerca de la cantidad de atención que el usuario está poniendo en un dispositivo (o dispositivos) diferentes del dispositivo del usuario final 108. Otra vez, cualquier tipo de información que sea obtenible y que pueda ser útil es pertinente aquí. Incluso información "negativa" puede tener un lugar. Si, por ejemplo, el dispositivo 108 no ha recibido ninguna información recientemente de que el
usuario está enfocando cualquier atención en él, entonces puede asumir que el usuario está enfocando su atención en el monitor de televisión 114. Evidentemente, la información negativa es normalmente muy débil, pues el usuario podría no estar poniendo ninguna atención a ninguno de dichos dispositivos del usuario final 108, 112, 114, 116. En muchas situaciones, el dispositivo del usuario final 108 cuando aplica el método de las Figuras 3a-3b hace lo mejor que puede con información limitada.
Con base en toda la información que ha sido capaz de reunir en los pasos 300 y 302, el dispositivo del usuario final 108 establece el parámetro de interacción del usuario en el paso 304. El escenario más sencillo con solo dos dispositivos 108, 114, el dispositivo del usuario final 108 puede, si la información reunida no contradice esto, asumir que la atención completa del usuario está dividida entre estos dos dispositivos 108, 114. Como se menciona anteriormente, esta sencilla suposición puede ser incorrecta como cuando el usuario no está poniendo mucha atención a ninguno de los dispositivos del usuario final 108, 112, 114, 116. Es decir, el usuario podría estar poniendo mucha o toda su atención a un dispositivo "desinstrumentado" de Clase C, pero no hay suficiente información para que el dispositivo
del usuario final 108 determine que este es el caso.
Con más información o más dispositivos, el dispositivo del usuario final 108 puede crear un parámetro de interacción del usuario multi-dimensional que representa cómo se extiende la atención del usuario en dispositivos múltiples. La calidad del parámetro de interacción del usuario se basa en la calidad y cantidad de información reunida y especialmente en el número de dispositivos del usuario final 108, 112, 114,
116 que contribuyen con algo de información.
Después de hacer el mejor trabajo posible en establecer el parámetro de interacción del usuario en el paso 304, el dispositivo del usuario final 108 utiliza ese parámetro en el paso 3C6 para configurar su interfaz del usuario 204 de alguna manera pensada que es apropiada para la cantidad de atención que el usuario está dando actualmente al dispositivo 108. Aquí son posibles muchas variaciones, y unos pocos ejemplos sirven para ilustrar un rango de posibilidades.
Considere primero la situación en donde, tanto como pueda determinar el dispositivo del usuario final 108, el total de la atención del usuario se divide entre el monitor de televisión 114 y el teléfono inteligente 108. El parámetro de interacción del usuario puede entonces ser una cantidad unidimensional, incluso, en el caso más sencillo, una
cantidad de un bit que dice si la mayor parte de la atención
del usuario está en el monitor 114 o en el teléfono 108. Si el usuario está principalmente enfocado en el monito 114, entonces esto es el clásico escenario de "reclinarse". Es decir, el usuario está "reclinándose" en su sofá y viendo la televisión. En este caso, la interfaz del usuario 204 del teléfono 108 puede hacerse muy sencilla a fin de no distraer al usuario. La interfaz del usuario 204 del teléfono 108 se configura para enfatizar las entradas que el usuario pueda utilizar cómodamente sin quitar su atención principal del monitor 114. Estas entradas pueden incluir un sensor de movimiento (para sacudir o una entrada gestual), un micrófono para entrada de voz, y una cámara que ve por otras entradas del usuario. Las entradas del teclado y ratón (las cuales requieren un grado de concentración) se desenfatizan o se apagan por completo. Las salidas para el teléfono 108 también están configuradas a fin de no distraer innecesariamente al usuario. Los iconos pequeños en la pantalla del teléfono 108 probablemente no se notarán para nada, asi que las visualizaciones y mensajes no urgentes pueden ser simplemente descartados o almacenados para revisarse más tarde. Los formatos de la interfaz del usuario 204 también pueden alterarse: si, por ejemplo, llega un mensaje de aviso de tornado, que requiere una acción inmediata del usuario, entonces en vez de mostrar un icono estático en la pantalla
del teléfono 108, la atención del usuario puede "agarrarse" al mostrar un icono grande e intermitente o al reproducir una alerta a través de la bocina del teléfono 108. (Esto es un ejemplo del paso opcional 308).
A continuación considere la misma disposición física anterior, pero en donde el teléfono inteligente 108 determina que la atención principal del usuario se le da con solo una atención secundaria dada al monitor de televisión 114. Esto se llama "inclinarse", y, debido a que el usuario está viendo activamente la pantalla del teléfono 108, una interfaz más rica es apropiada. Iconos más pequeños, y más de ellos, pueden mostrarse con la expectación de que el usuario los notará. Las interfaces del teclado y el ratón, los cuales permiten un control de gestos más fino, se enfatizan.
Si el teléfono inteligente 108 puede estimar qué tanto la atención del usuario se divide entre el monitor de la televisión 114 y el teléfono 108, entonces puede configurar su interfaz 204 en algún punto entre los extremos de "reclinarse" e "inclinarse". Similarmente, si el teléfono 108 está al tanto (o sospecha) que la atención del usuario está dividida entre más de dos dispositivos 108, 114, puede presentar correspondientemente una interfaz de usuario apropiada 204.
En la discusión del paso 300 anteriormente, se notó que el usuario puede establecer un "control deslizante" (o de otro modo interactuar con la interfaz del usuario 204 del dispositivo del usuario final 108) para forzar un valor particular para el parámetro de interacción del usuario. Esta opción es especialmente útil cuando, por falta de información, el procedimiento de las Figuras 3a-3b calcula un parámetro de interacción del usuario que no refleja el perfil real de atención del usuario. El usuario también puede desear "bloquear" el parámetro si el usuario está cambiando constantemente el enfoque de su atención y preferiría adaptarse a los dispositivos 108, 112, 114, 116 en lugar de que los dispositivos 108, 112, 114, 116 traten de adaptarse al usuario. Aunque este ajuste explícito esencialmente nulifica (o hace fácil de manera trivial) las operaciones del paso 304, los aspectos de la presente invención, incluyendo especialmente la configuración de la interfaz del usuario del paso 306, aún son aplicables y útiles.
Nótese que los ejemplos anteriores solo discuten cómo se configura la interfaz 204 del dispositivo del usuario final 108 (un dispositivo de Clase A). La configuración de otros dispositivos (no de Clase A) se discuten más adelante.
El dispositivo del usuario final 108 puede aplicar el
parámetro de interacción del usuario con otros propósitos
diferentes a los de configurar su interfaz del usuario 204. Como otro ejemplo del paso 308, cuando se recibe el contenido de medios, el dispositivo 108 puede analizar la urgencia del contenido y después, basándose en el parámetro de interacción del usuario, dirigir el contenido hacia el dispositivo del usuario final 108, 112, 114, 116 más apropiado. Regresando al ejemplo del aviso de tornado, el aviso puede ser enviado a cualquiera de los dispositivos 108, 112, 114, 116 que actualmente esté recibiendo la mayor parte de la atención del usuario, o incluso a todos los dispositivos 108, 112, 114, 116 posibles de modo que el usuario esté al tanto del aviso lo más rápido posible. Otros usos del parámetro de interacción del usuario, tales como remapear el significado de las entradas gestuales, también se contemplan.
El parámetro de interacción del usuario puede utilizarse en la selección de una presentación de medios particular para reproducir o una aplicación para ejecutar en el paso opcional 310. Si, por ejemplo, el usuario está enfocándose principalmente en un juego de fútbol mostrado en el monitor de la televisión 114, entonces el contenido relacionado con ese juego (p.ej., anuncios, biografías de los jugadores, un corte de comentarios) pueden mostrarse en el dispositivo del usuario final 108.
La Figura 3b presenta otros usos opcionales del parámetro de interacción del usuario. Debido a que las aplicaciones actuales no están escritas para considerar cómo utilizar el parámetro de interacción del usuario, el paso 306 anterior generalmente se realizaría por el sistema operativo del dispositivo del usuario final 108. Se espera que en el futuro al menos algunas aplicaciones sean capaces de aceptar el parámetro de interacción del usuario en el paso 312 y de configurar sus operaciones de manera correspondiente.
En el paso 314, el dispositivo del usuario final 108, después de haber calculado el parámetro de interacción del usuario, envía ese parámetro a otro dispositivo. El otro dispositivo sería probablemente un dispositivo del usuario final de Clase B (se discute más abajo en referencia a la Figura 4) o un servidor de Clase Y (Figura 5). En algunas situaciones, el dispositivo 108 no envía el parámetro real de interacción del usuario en el paso 314 pero en cambio envía un valor basado en ese parámetro. Por ejemplo, el dispositivo 108 puede revisar la información contenida en el parámetro de interacción del usuario y enviar un valor adaptado para el dispositivo del usuario final de Clase B.
Además de enviar el parámetro de interacción del usuario a un servidor en el paso 314, el dispositivo del usuario final 108 puede enviar información extra en el paso 316.
Generalmente esta información extra permite que el receptor del servidor entienda mejor el perfil actual de atención del usuario. Los ejemplos específicos se discuten más adelante en referencia al paso 502 de la Figura 5 y al paso 604 de la Figura 6 en donde el servidor recibe y aplica dicha información extra.
En el paso 318, un servidor envía una orden al dispositivo del usuario final 108, y el dispositivo 108 responde. Este paso es relevante porque la orden puede basarse en el parámetro de interacción del usuario (enviado al servidor en el paso 314), y la respuesta específica del dispositivo 108 puede también basarse en el parámetro de interacción del usuario.
Nótese que en un escenario real, los pasos de las
Figuras 3a-3b se realizan de manera repetida y posiblemente en un modo sobrepuesto. El perfil de atención del usuario está constantemente monitoreado, y, al notarse cambios, esos cambios se reflejan en un cambión para el parámetro de interacción del usuario el cual puede resultar en cambios para las interfaces de usuario 204 y aplicaciones. Por ejemplo, el dispositivo del usuario final 108 puede notar que el usuario acaba de cambiar de un modo reclinado a un modo inclinado. Además de configurar la interfaz del usuario 204 del dispositivo 108 para optimizar la interacción del usuario
en el modo inclinado, el dispositivo 108 puede tomar acciones especificas con base en los cambios de modo. El dispositivo 108 puede, por ejemplo, recomendar que los medios que se reproducen en el monitor de televisión 114 (al cual el usuario ahora está poniendo menos atención) se pausen o se graven para volver a reproducirlos en el futuro. Los ajustes particulares de la configuración reclinada pueden almacenarse de modo que puedan reinstituirse si el usuario regresa a enfocar su atención en el monitor 114.
La Figura 4 presenta un método de operación aplicable a dispositivos de Clase B. Si el receptor de televisión 112 es tal dispositivo, entonces recibiría, en el paso 400, el parámetro de interacción del usuario (o un valor basado en ese parámetro) desde otro dispositivo, posiblemente desde un dispositivo de usuario final 108 de Clase A que establezca el parámetro (o desde un servidor: vea la discusión de las Figuras 5 y 6, más adelante). El valor recibido puede adaptarse para el dispositivo receptor particular 112. Por ejemplo, en lugar de decir al dispositivo 112 el perfil completo de atención del usuario, el valor puede sencillamente decir que el usuario está dando, digamos, 30% de su atención al dispositivo 112.
Con el parámetro a la mano, el dispositivo 112 configura su interfaz de usuario 204 en el paso 306. Este paso utiliza
la misma numeración que el paso equivalente en el procedimiento del dispositivo 108 de Clase A (Figura 3a), porque el presente dispositivo 112 de Clase B aplica las mismas consideraciones cuando establece su interfaz de usuario 204. Para enfatizar ese punto, el dispositivo 112 de Clase B puede entonces, en el paso 402, realizar cualquiera o todos los pasos opcionales 308 a 318 de las Figuras 3a y 3b.
En suma, el dispositivo 112 de Clase B (y no todos los dispositivos 108 de Clase A, para el caso) pueden realizar todos los pasos opcionales de 308 a 318.
Nótese también que, en general, este dispositivo 112 de Clase B reúne cualquier información que puede que sea relevante para el perfil de atención del usuario y envía esa información al dispositivo 108 de Clase A. Esta información puede incluir ajustes explícitos del usuario, información del perfil, patrones de interacción del usuario históricos y actuales, y preferencias y políticas del usuario. Esto se discute anteriormente en relación al paso 302 de la Figura 3a. El dispositivo 108 de Clase A utiliza esta información cuando se establece el parámetro de interacción del usuario en el paso 304 de la Figura 3a.
Un servidor 104 de Clase Y puede operar de acuerdo con el método ejemplar de la Figura 5. En el paso 500, el servidor 104 recibe el parámetro de interacción del usuario
(o un valor basado en éste), probablemente desde el dispositivo del usuario final 108 de Clase A que calculó el parámetro (o desde un servidor de Clase Z: ver la Figura 6 y la discusión de acompañamiento). En algunas situaciones, más de un dispositivo del usuario final 108, 112, 114, 116 es un dispositivo de Clase A, y en ese caso el servidor 104 puede recibir múltiples parámetros de interacción del usuario en el paso 500.
El servidor 104 también puede recibir otra información relevante en el paso 502 tal como una identificación del dispositivo que envía el parámetro de interacción del usuario, información contextual, e información acerca de cómo el dispositivo que envía respondió al parámetro de interacción del usuario. (Vea la discusión del paso 316 de la Figura 3b).
Con base en la información recibida en los pasos 500 y 502, el servidor 104 envía un mensaje al dispositivo del usuario final 108, 112, 114, 116 en el paso 504. Por ejemplo, el mensaje puede dar a un dispositivo 112 de Clase B suficiente información de modo que el dispositivo 112 pueda configurar su interfaz de usuario 204. Para un dispositivo del usuario final de Clase C, el mensaje puede ser más explícito, al decir al dispositivo exactamente cómo configurar su interfaz del usuario final 204. (Los
dispositivos de Clase C, recuerde, no saben cómo responder al parámetro de interacción del usuario, pero su interfaz del usuario 204 aún puede ser configurable de manera apropiada). Es decir, a un dispositivo 112 de Clase B se le puede decir que el usuario está en modo reclinado, y el dispositivo 112 de Clase B entonces configura su interfaz de usuario 204 de manera correspondiente. Al dispositivo de Clase C, por otro lado, se le da instrucciones explícitas que configuran su interfaz de usuario 204 para acomodar la reclinación del usuario. Los diferentes dispositivos de Clase B y C tienen diferentes limitaciones, pero en el caso más general, pueden configurarse en tantas maneras como un dispositivo 108 de Clase A se configura así mismo. (Vea la discusión del paso 306 de la Figura 3a).
El servidor 104 puede enviar otros mensajes además de los mensajes de configuración en el paso 504. El servidor 104 puede seleccionar contenido de medios o una aplicación con base en la información que recibió en los pasos 500 y 502 y enviarla a su vez en el paso 504.
Finalmente, la Figura 6 representa un método para un servidor 106 de Clase Z. El método comienza con los pasos 600 y 602 en donde el servidor 106 recibe información de atención desde los múltiples dispositivos 108, 112, 114, 116. Este es el mismo tipo de información que el dispositivo 108 de Clase
A recibe en el paso 302 de la Figura 3a. En el paso 604, el servidor 106 también puede recibir información extra desde un dispositivo del usuario final 108, 112, 114, 116, tal como la información descrita anteriormente en relación al paso 502 de la Figura 5.
Después en el paso 606, el servidor 106 establece un parámetro de interacción del usuario con base en toda la información disponible para si. Aquí, el servidor 106 puede utilizar mucho del procedimiento que el dispositivo 108 de Clase A utiliza en el paso 304 de la Figura 3a.
Ahora que el parámetro de interacción del usuario se ha establecido, el servidor 106 procede, en el paso 608, a comunicarse con uno o más de los dispositivos del usuario final 108, 112, 114, 116 del mismo modo que el servidor 104 de Clase Y utiliza en el paso 304 de la Figura 3a.
Ahora que el parámetro de interacción del usuario se ha establecido, el servidor 106 procede, en el paso 608, a comunicarse con uno o más de los dispositivos del usuario final 108, 112, 114, 116 del mismo modo que el servidor 104 de Clase Y hizo en el paso 504 de la Figura 5 (discutido anteriormente).
La discusión anterior claramente separa los dispositivos en las clases A, B, C, Y, y Z. Es importante recordar que aunque un dispositivo opera en una clase en una situación, en
otra situación el mismo dispositivo puede operar en otra clase. También, cualquier información disponible desde cualquier dispositivo puede, en teoría, volverse útil como entrada al establecer el parámetro de interacción del usuario.
En vista de las muchas posibles modalidades a las cuales los principios de la presente invención pueden aplicarse, deberla reconocerse que las modalidades descritas en este documento con respecto a las figuras de dibujos tienen la intención de ser solo ilustrativas y no deberían tomarse como limitación del alcance de la invención. Por ejemplo, los múltiples dispositivos de varias clases pueden trabajar juntos para establecer el parámetro de interacción del usuario y responder a ese parámetro una vez establecido. Por lo tanto, la invención como se describe en este documento contempla todas tales modalidades como pueden estar dentro del alcance de las siguiente reivindicaciones y equivalentes de las mismas.
Claims (11)
1. En un entorno de las comunicaciones (100) donde un usuario tiene acceso a ambos, un primer dispositivo de consumo de medios (108, 112, 114, 116) y a un segundo dispositivo de consumo de medios (108, 112, 114, 116), los dos dispositivos (108, 112, 114, 116) distintos, un método para un servidor (104, 106), distintos el primero del segundo dispositivos (108, 112, 114, 116), para soportar múltiples modos de interacción del usuario, el método comprende: recibir (500), por medio del servidor (104, 106) del primer dispositivo (108, 112, 114, 116), un parámetro de interacción del usuario; y enviar (504), por medio del servidor (104, 106) a un dispositivo receptor (108, 112, 114, 116), un mensaje, el mensaje basado, al menos en parte, en el parámetro de interacción del usuario; en donde el dispositivo receptor (108, 112, 114, 116) se selecciona del grupo que consiste de: el primer dispositivo (108, 112, 114, 116) y el segundo dispositivo (108, 112, 114, 116).
2. El método de acuerdo con la reivindicación 1, caracterizado porque el mensaje dirige al dispositivo receptor a configurar una interfaz de usuario en el dispositivo receptor, la configuración basada, al menos en parte, en el parámetro de interacción del usuario.
3. El método de acuerdo con la reivindicación 2, caracterizado porque: el parámetro de interacción del usuario se establece como inclinado; y configurar la interfaz del usuario comprende habilitar una entrada de teclado y una salida de visualización.
4. El método de acuerdo con la reivindicación 2, caracterizado porque: el parámetro de interacción del usuario se establece como reclinado; y configurar la interfaz del usuario comprende habilitar una entrada por sensor, en donde el sensor se selecciona de un grupo que consiste de: un sensor de tacto, un micrófono, un sensor de movimiento, una cámara, y un sensor de posición.
5. El método de acuerdo con la reivindicación 2 caracterizado porque configurar la interfaz del usuario comprende establecer una modalidad de visualización de la interfaz del usuario.
6. El método de acuerdo con la reivindicación 1, además comprende: seleccionar, por medio del servidor, contenido de medios; en donde el mensaje comprende el contenido de medios seleccionado; y en donde la selección se basa, al menos en parte, en el parámetro recibido de interacción del usuario.
7. El método de acuerdo con la reivindicación 1, además comprende: seleccionar, por medio del servidor, una actividad; en donde el mensaje comprende una orden para realizar la actividad seleccionada; y en donde la selección se basa, al menos en parte, en el parámetro recibido de interacción del usuario.
8. El método de acuerdo con la reivindicación 1, además comprende: recibir, por medio del servidor desde el primer dispositivo, información extra; en donde el mensaje además se basa, al menos en parte, en dicha información extra recibida; y en donde dicha información extra se selecciona del grupo que consiste de: información de contexto de interacción, información del dispositivo, información acerca de la configuración de interfaz de un usuario establecida por el primer dispositivo, e información acerca de una selección hecha por el primer dispositivo con base, al menos en parte, en el parámetro de interacción del usuario.
9. Un servidor (104, 106) configurado para soportar múltiples modos de interacción del usuario en un entorno de comunicaciones (100) en donde un usuario tiene acceso a ambos, un primer dispositivo de consumo de medios (108, 112, 114, 116) y un segundo dispositivo de consumo de medios (108, 112, 114, 116), los dos dispositivos (108, 112, 114, 116) y el servidor (104, 106) todos distintos, el servidor (104, 106) comprende: un transceptor ( tzansceiver) (200) configurado para recibir (500), desde el primer dispositivo (108, 112, 114, 116), un parámetro de interacción del usuario; y un procesador (202) conectado operativamente al transceptor (200) y configurado para: enviar (504), a través del transceptor a un dispositivo receptor (108, 112, 114, 116), un mensaje, el mensaje se basa, al menos en parte, en el parámetro recibido de interacción del usuario; en donde el dispositivo receptor (108, 112, 114, 116) se selecciona de un grupo que consiste de: el primer dispositivo (108, 112, 114, 116) y el segundo dispositivo (108, 112, 114, 116).
10. En un entorno de comunicaciones (100) en donde un usuario tiene acceso a ambos, un primer dispositivo de consumo de medios (108, 112, 114, 116) y un segundo dispositivo de consumo de medios (108, 112, 114, 116), distintos los dos dispositivos (108, 112, 114, 116), un método para un servidor (104, 106), distinto del primero y segundo dispositivos (108, 112, 114, 116), para soportar múltiples modos de interacción del usuario, el método comprende: recibir (600), por medio del servidor (104, 106) del primer dispositivo (108, 112, 114, 116), primera información asociada con una cantidad de atención puesta al primer dispositivo (108, 112, 114, 116); recibir (602), por medio del servidor (104, 106) del segundo dispositivo (108, 112, 114, 116), segunda información asociada con una cantidad de atención puesta al segundo dispositivo (108, 112, 114, 116); con base, el menos en parte, en la primer y segunda información recibidas, establecer 606 un parámetro de interacción del usuario para un dispositivo receptor (108, 112, 114, 116); y en donde el dispositivo receptor (108, 112, 114, 116) se selecciona del grupo que consiste de: el primer dispositivo (108, 112, 114, 116) y el segundo dispositivo (108, 112, 114, 116).
11. Un servidor (104, 106) configurado para soportar múltiples modos de interacción del usuario en un entorno de comunicaciones (100) en donde un usuario tiene acceso a ambos, un primer dispositivo de consumo de medios (108, 112, 114, 116) y un segundo dispositivo de consumo de medios(108, 112, 114, 116), los dos dispositivos (108, 112, 114, 116) y el servidor (104, 106) todos distintos, el servidor comprende: un transceptor (200) configurado para recibir (600), del primer dispositivo (108, 112, 114, 116), primera información asociada con una cantidad de atención puesta al primer dispositivo (108, 112, 114, 116) y para recibir (602), del segundo dispositivo (108, 112, 114, 116), una segunda información asociada con la cantidad de atención puesta al segundo dispositivo (108, 112, 114, 116); y un procesador (202) conectado operativamente al transceptor (200) y configurado para: con base, al menos en parte, en la primera y segunda información de atención recibidas, establecer (606) un parámetro de interacción del usuario para un dispositivo receptor (108, 112, 114, 116); y enviar (608), por medio del transceptor (200) al dispositivo receptor (108, 112, 114, 116), un mensaje, el mensaje basado, al menos en parte, en el parámetro de interacción del usuario; en donde el dispositivo receptor (108, 112, 114, 116) se selecciona del grupo que consiste de: el primer dispositivo (108, 112, 114, 116) y el segundo dispositivo (108, 112, 114, 116).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/326,574 US9554185B2 (en) | 2011-12-15 | 2011-12-15 | Supporting multiple attention-based, user-interaction modes |
PCT/US2012/065410 WO2013089965A1 (en) | 2011-12-15 | 2012-11-16 | Supporting multiple attention-based, user-interaction modes |
Publications (2)
Publication Number | Publication Date |
---|---|
MX2014007234A true MX2014007234A (es) | 2015-05-15 |
MX342114B MX342114B (es) | 2016-09-14 |
Family
ID=47295190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2014007234A MX342114B (es) | 2011-12-15 | 2012-11-16 | Soporte de múltiples modos de interacción de usuario basados en atención. |
Country Status (7)
Country | Link |
---|---|
US (1) | US9554185B2 (es) |
EP (1) | EP2792156B1 (es) |
KR (1) | KR101655002B1 (es) |
CN (1) | CN104115502B (es) |
CA (1) | CA2859540C (es) |
MX (1) | MX342114B (es) |
WO (1) | WO2013089965A1 (es) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8763042B2 (en) | 2012-10-05 | 2014-06-24 | Motorola Mobility Llc | Information provision |
US9544647B2 (en) | 2012-11-21 | 2017-01-10 | Google Technology Holdings LLC | Attention-based advertisement scheduling in time-shifted content |
US9729920B2 (en) | 2013-03-15 | 2017-08-08 | Arris Enterprises, Inc. | Attention estimation to control the delivery of data and audio/video content |
US9693030B2 (en) | 2013-09-09 | 2017-06-27 | Arris Enterprises Llc | Generating alerts based upon detector outputs |
WO2015038749A1 (en) | 2013-09-13 | 2015-03-19 | Arris Enterprises, Inc. | Content based video content segmentation |
US20190026212A1 (en) * | 2013-10-04 | 2019-01-24 | Verto Analytics Oy | Metering user behaviour and engagement with user interface in terminal devices |
US9361005B2 (en) | 2013-12-27 | 2016-06-07 | Rovi Guides, Inc. | Methods and systems for selecting modes based on the level of engagement of a user |
DE102014211882A1 (de) * | 2014-06-20 | 2015-12-24 | Robert Bosch Gmbh | Verfahren zur Ermittlung der Herzfrequenz des Fahrers eines Fahrzeugs |
KR102300435B1 (ko) | 2015-01-09 | 2021-09-09 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 방법 |
US10097882B2 (en) | 2015-08-11 | 2018-10-09 | Arris Enterprises Llc | Back-end content analysis system to initiate second-screen confirmation |
US9628839B1 (en) | 2015-10-06 | 2017-04-18 | Arris Enterprises, Inc. | Gateway multi-view video stream processing for second-screen content overlay |
CN106658202A (zh) | 2015-10-30 | 2017-05-10 | 中国移动通信集团公司 | 一种触发互动应用的方法和设备 |
US10404697B1 (en) | 2015-12-28 | 2019-09-03 | Symantec Corporation | Systems and methods for using vehicles as information sources for knowledge-based authentication |
US10326733B2 (en) | 2015-12-30 | 2019-06-18 | Symantec Corporation | Systems and methods for facilitating single sign-on for multiple devices |
US10116513B1 (en) | 2016-02-10 | 2018-10-30 | Symantec Corporation | Systems and methods for managing smart building systems |
US10375114B1 (en) | 2016-06-27 | 2019-08-06 | Symantec Corporation | Systems and methods for enforcing access-control policies |
US10462184B1 (en) | 2016-06-28 | 2019-10-29 | Symantec Corporation | Systems and methods for enforcing access-control policies in an arbitrary physical space |
US10469457B1 (en) | 2016-09-26 | 2019-11-05 | Symantec Corporation | Systems and methods for securely sharing cloud-service credentials within a network of computing devices |
US10812981B1 (en) | 2017-03-22 | 2020-10-20 | NortonLifeLock, Inc. | Systems and methods for certifying geolocation coordinates of computing devices |
US11310296B2 (en) * | 2018-11-06 | 2022-04-19 | International Business Machines Corporation | Cognitive content multicasting based on user attentiveness |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09244781A (ja) | 1996-03-12 | 1997-09-19 | Hitachi Ltd | 環境適合情報アクセス方法 |
US6889382B1 (en) | 1999-07-27 | 2005-05-03 | Mediaone Group, Inc. | Remote TV control system |
US20020173721A1 (en) | 1999-08-20 | 2002-11-21 | Novasonics, Inc. | User interface for handheld imaging devices |
US20020026359A1 (en) | 2000-02-22 | 2002-02-28 | Long Kenneth W. | Targeted advertising method and system |
US7908172B2 (en) | 2000-03-09 | 2011-03-15 | Impulse Radio Inc | System and method for generating multimedia accompaniments to broadcast data |
US20030135539A1 (en) | 2001-01-23 | 2003-07-17 | Tetsujiro Kondo | Communication apparatus, communication method, eletronic device, control method of the electronic device, and recording medium |
US20020144259A1 (en) | 2001-03-29 | 2002-10-03 | Philips Electronics North America Corp. | Method and apparatus for controlling a media player based on user activity |
US7409423B2 (en) | 2001-06-28 | 2008-08-05 | Horvitz Eric J | Methods for and applications of learning and inferring the periods of time until people are available or unavailable for different forms of communication, collaboration, and information access |
US7158943B2 (en) | 2001-09-04 | 2007-01-02 | Ramon Van Der Riet | Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships |
US7284201B2 (en) | 2001-09-20 | 2007-10-16 | Koninklijke Philips Electronics N.V. | User attention-based adaptation of quality level to improve the management of real-time multi-media content delivery and distribution |
US7289606B2 (en) | 2001-10-01 | 2007-10-30 | Sandeep Sibal | Mode-swapping in multi-modal telephonic applications |
US7383283B2 (en) | 2001-10-16 | 2008-06-03 | Joseph Carrabis | Programable method and apparatus for real-time adaptation of presentations to individuals |
US20030097659A1 (en) | 2001-11-16 | 2003-05-22 | Goldman Phillip Y. | Interrupting the output of media content in response to an event |
US7987491B2 (en) * | 2002-05-10 | 2011-07-26 | Richard Reisman | Method and apparatus for browsing using alternative linkbases |
US20030018969A1 (en) | 2002-06-21 | 2003-01-23 | Richard Humpleman | Method and system for interactive television services with targeted advertisement delivery and user redemption of delivered value |
US7365651B2 (en) | 2002-08-20 | 2008-04-29 | Motorola, Inc. | Method and apparatus for selecting a user interface |
EP2204118B1 (en) | 2002-10-15 | 2014-07-23 | Volvo Technology Corporation | Method for interpreting a drivers head and eye activity |
JP4261895B2 (ja) | 2002-12-13 | 2009-04-30 | キヤノン株式会社 | デジタル放送受信機及びデジタル放送受信機の制御方法 |
JP2005013713A (ja) | 2003-04-30 | 2005-01-20 | National Institute Of Information & Communication Technology | 注意機能の測定と学習方法及び装置 |
US8214256B2 (en) | 2003-09-15 | 2012-07-03 | Time Warner Cable Inc. | System and method for advertisement delivery within a video time shifting architecture |
US20050099492A1 (en) | 2003-10-30 | 2005-05-12 | Ati Technologies Inc. | Activity controlled multimedia conferencing |
US8429696B2 (en) | 2003-10-31 | 2013-04-23 | Microsoft Corporation | Multimedia presentation resumption within an environment of multiple presentation systems |
US8232962B2 (en) | 2004-06-21 | 2012-07-31 | Trading Technologies International, Inc. | System and method for display management based on user attention inputs |
US20070005752A1 (en) | 2005-06-29 | 2007-01-04 | Jitendra Chawla | Methods and apparatuses for monitoring attention of a user during a collaboration session |
US20060192775A1 (en) * | 2005-02-25 | 2006-08-31 | Microsoft Corporation | Using detected visual cues to change computer system operating states |
US7689167B2 (en) | 2005-07-22 | 2010-03-30 | Intel Corporation | Methods and apparatus for operating an ensemble of wireless electronic devices based on user activity |
US20070094083A1 (en) | 2005-10-25 | 2007-04-26 | Podbridge, Inc. | Matching ads to content and users for time and space shifted media network |
US20080127246A1 (en) | 2006-09-14 | 2008-05-29 | Nortel Networks Limited | Digital media recorder based advertising |
US7890849B2 (en) | 2006-09-15 | 2011-02-15 | Microsoft Corporation | Concurrent presentation of media and related content lists |
JP5300741B2 (ja) | 2007-01-12 | 2013-09-25 | シフォルーション ベー フェー | ビデオ透かし入れのための方法および装置 |
US7743075B2 (en) | 2007-03-23 | 2010-06-22 | Research In Motion Limited | Method and system for orchestration of content processing in mobile delivery frameworks |
US20080243610A1 (en) | 2007-03-28 | 2008-10-02 | Microsoft Corporation | Attention estimation through incremental impression interaction for precise advertisement monetization |
US8381122B2 (en) | 2007-06-08 | 2013-02-19 | Apple Inc. | Multi-dimensional application environment |
US20090132276A1 (en) | 2007-11-13 | 2009-05-21 | Petera Michael G | Methods and systems for clinical documents management by vocal interaction |
US20090132339A1 (en) | 2007-11-21 | 2009-05-21 | Microsoft Corporation | Signature-Based Advertisement Scheduling |
EP2243293B1 (en) | 2008-02-13 | 2013-08-14 | NDS Limited | Advertisement shifting system |
US8060904B1 (en) | 2008-02-25 | 2011-11-15 | Qurio Holdings, Inc. | Dynamic load based ad insertion |
WO2009142624A1 (en) | 2008-05-20 | 2009-11-26 | Hewlett-Packard Development Company, L.P. | User interface modifier |
US20080276270A1 (en) | 2008-06-16 | 2008-11-06 | Chandra Shekar Kotaru | System, method, and apparatus for implementing targeted advertising in communication networks |
US8737916B2 (en) | 2008-07-21 | 2014-05-27 | Samsung Electronics Co., Ltd. | Metadata display control method and system for broadcast receiver |
US8763020B2 (en) | 2008-10-14 | 2014-06-24 | Cisco Technology, Inc. | Determining user attention level during video presentation by monitoring user inputs at user premises |
US20120096486A1 (en) | 2009-04-01 | 2012-04-19 | Paul Stallard | Method and system for managing television adverts in time shifted broadcast content |
EP2242259A1 (en) | 2009-04-16 | 2010-10-20 | Panasonic Corporation | Content recommendation |
WO2010135359A2 (en) | 2009-05-19 | 2010-11-25 | Smx Inet Global Services Sa | Providing a local device with computing services from a remote host |
US20120102233A1 (en) | 2009-05-27 | 2012-04-26 | Ajay Shah | Synchronized delivery of interactive content using standardized vectors |
US8875168B2 (en) | 2009-07-30 | 2014-10-28 | Avaya Inc. | Audio/Video monitoring service using set-top boxes and application servers |
KR101718532B1 (ko) | 2009-09-15 | 2017-03-21 | 톰슨 라이센싱 | 상보적 정보를 제공하는 방법 및 장치 |
US8572753B2 (en) | 2009-12-22 | 2013-10-29 | Ncr Corporation | Methods and apparatus for selecting and delivering content |
US9668030B2 (en) | 2010-04-28 | 2017-05-30 | Qualcomm Incorporated | Synchronization of interactivity with linear advertisement in a mobile broadcast network |
US20130144709A1 (en) | 2011-12-05 | 2013-06-06 | General Instrument Corporation | Cognitive-impact modeling for users having divided attention |
US20130160036A1 (en) | 2011-12-15 | 2013-06-20 | General Instrument Corporation | Supporting multiple attention-based, user-interaction modes |
US8763042B2 (en) | 2012-10-05 | 2014-06-24 | Motorola Mobility Llc | Information provision |
US8484676B1 (en) | 2012-11-21 | 2013-07-09 | Motorola Mobility Llc | Attention-based, multi-screen advertisement scheduling |
US20140143043A1 (en) | 2012-11-21 | 2014-05-22 | General Instrument Corporation | Multi-screen advertisement correlation based on purchases |
US9544647B2 (en) | 2012-11-21 | 2017-01-10 | Google Technology Holdings LLC | Attention-based advertisement scheduling in time-shifted content |
-
2011
- 2011-12-15 US US13/326,574 patent/US9554185B2/en active Active
-
2012
- 2012-11-16 CA CA2859540A patent/CA2859540C/en not_active Expired - Fee Related
- 2012-11-16 CN CN201280069429.5A patent/CN104115502B/zh not_active Expired - Fee Related
- 2012-11-16 MX MX2014007234A patent/MX342114B/es active IP Right Grant
- 2012-11-16 EP EP12795959.1A patent/EP2792156B1/en not_active Not-in-force
- 2012-11-16 KR KR1020147019142A patent/KR101655002B1/ko active IP Right Grant
- 2012-11-16 WO PCT/US2012/065410 patent/WO2013089965A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CA2859540C (en) | 2017-05-16 |
MX342114B (es) | 2016-09-14 |
CA2859540A1 (en) | 2013-06-20 |
KR20140101428A (ko) | 2014-08-19 |
US20130159876A1 (en) | 2013-06-20 |
CN104115502A (zh) | 2014-10-22 |
EP2792156B1 (en) | 2018-04-04 |
EP2792156A1 (en) | 2014-10-22 |
CN104115502B (zh) | 2019-02-12 |
KR101655002B1 (ko) | 2016-09-06 |
US9554185B2 (en) | 2017-01-24 |
WO2013089965A1 (en) | 2013-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MX2014007234A (es) | Soporte de multiples modos de interaccion de usuario basados en atencion. | |
US20130160036A1 (en) | Supporting multiple attention-based, user-interaction modes | |
US10061467B2 (en) | Presenting a message in a communication session | |
WO2017096817A1 (zh) | 一种多机位视频同步播放的实现方法及装置 | |
US20080148331A1 (en) | System and apparatus for managing media content | |
US9003452B2 (en) | Systems, methods, and apparatus for recording broadband content | |
CN111277884B (zh) | 视频播放方法及设备 | |
US10375438B2 (en) | Method for content projection and mobile terminal | |
AU2018204705A1 (en) | System and method for networked communication of information content by way of a display screen and a remote controller | |
CN108322795B (zh) | 信息处理系统、信息处理设备和信息处理方法 | |
CN107256154A (zh) | 虚拟桌面服务 | |
KR20120051967A (ko) | 영상표시기기의 동작 방법 | |
US9338508B2 (en) | Preserving a consumption context for a user session | |
US12028581B2 (en) | Method of providing personalized channel change lists | |
US9563717B2 (en) | Intelligent caching of content items | |
KR20110092411A (ko) | 네트워크 커뮤니티 제공 장치 및 방법 | |
KR101909257B1 (ko) | 단말로부터 요청된 가상 어플리케이션을 실행하는 서버 및 방법, 그리고 단말 | |
US10271102B2 (en) | Systems and methods for conflict detection based on user preferences | |
US20230300180A1 (en) | Remote realtime interactive network conferencing | |
US20110307558A1 (en) | Shared social program guide | |
WO2024169421A1 (zh) | 显示设备和显示处理方法 | |
WO2022066604A1 (en) | Content casting from digital televisions | |
WO2023177597A2 (en) | Remote realtime interactive network conferencing | |
JP2024510736A (ja) | ユーザ定義のコンテンツアウェア動作を可能にする方法 | |
CN116233526A (zh) | 一种显示设备及信号源列表显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |