MXPA06002335A - Sistema y metodo para interaccion libre de vision con un dispositivo de computacion a traves de la recepcion ambiental. - Google Patents

Sistema y metodo para interaccion libre de vision con un dispositivo de computacion a traves de la recepcion ambiental.

Info

Publication number
MXPA06002335A
MXPA06002335A MXPA06002335A MXPA06002335A MXPA06002335A MX PA06002335 A MXPA06002335 A MX PA06002335A MX PA06002335 A MXPA06002335 A MX PA06002335A MX PA06002335 A MXPA06002335 A MX PA06002335A MX PA06002335 A MXPA06002335 A MX PA06002335A
Authority
MX
Mexico
Prior art keywords
environmental
computing device
impact
computer
user
Prior art date
Application number
MXPA06002335A
Other languages
English (en)
Inventor
Timothy Lawrence Brooke
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MXPA06002335A publication Critical patent/MXPA06002335A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

Un sistema y metodo para la interaccion libre de vision con un dispositivo de computacion a traves de la percepcion ambiental. Un dispositivo de computacion inteligente incluye las regulaciones de impacto no ambiental que indican que tipo de impacto de usuario se reconocera como una entrada. El dispositivo de computacion inteligente monitorea las condiciones ambientales para distinguir un impacto de usuario de un impacto ambiental. Una vez que se ha dado la deteccion del impacto de usuario, un comando es generado para realizar una funcion en una aplicacion.

Description

SISTEMA Y MÉTODO PARA INTERACCIÓN LIBRE DE VISION CON UN DISPOSITIVO DE COMPUTACIÓN A TRAVÉS DE LA PERCEPCIÓN AMBIENTAL ANTECEDENTES DE LA INVENCIÓN Teléfonos celulares, computadoras personales, computadoras móviles, dispositivos musicales y otros dispositivos de computación se están convirtiendo rápidamente en modos de corriente principal de disfrute personal y comunicación. Estos dispositivos pueden ser usados mientras se está manejando un vehículo, corriendo, andando en bicicleta, en una reunión, durante una película o durante otras actividades diversas. Mientras estos modos de comunicación se vuelven más prevalecientes, también lo hace la necesidad de eficiencia, simplicidad y utilidad de estos dispositivos. Los dispositivos de computación actuales no tienen relación con los dispositivos que rodean el ambiente. Tales dispositivos se ejecutan típicamente de la misma manera sin importar el ambiente circundante. Típicamente, con el propósito de controlar la ejecución o la funcionalidad de estos dispositivos el usuario debe navegar elementos del mismo dispositivo. Tal navegación y falta de conciencia ambiental hacen a los dispositivos de computación actuales ineficientes, complejos y disminuye la utilidad de estos dispositivos.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Aspectos de la presente invención se relacionan con un sistema y método para una interacción libre de visión con un dispositivo de computación a través de la percepción ambiental. Las regulaciones de impacto ambiental son provistas para indicar qué tipo de impacto (esto es, un toque, doble toque, triple toque, movimiento, etc.) identificará una entrada. El dispositivo de computación monitorea las condiciones ambientales para distinguir impactos ambientales de una entrada. El ambiente puede ser monitoreado a través de un acelerómetro, un sensor de localización, un sensor de conductancia, un sensor de audio o un sensor de luz. Cuando la entrada de un usuario es detectada, un comando es generado y ejecutado en una aplicación. Por ejemplo, andando en una bicicleta, un acelerómetro determina que los impactos de la actividad no son entradas del usuario. Sin embargo, cuando el usuario golpetea el dispositivo, el dispositivo puede llevar a cabo una función. En otros aspectos de la presente invención, otros sensores dan contexto a la programación de impactos ambientales. Las regulaciones de impactos ambientales pueden proveer diferentes regulaciones de impacto dependiendo de la condición ambiental actual. Cuando los sensores detectan una condición ambiental, las regulaciones de impactos ambientales utilizarán esta información para determinar qué tipo de impacto indicará una entrada. De esta manera, un usuario puede controlar un dispositivo de computación a través de impactos sin que sea necesario ver el dispositivo mientras haga esto. Estos y otros aspectos de la presente invención serán evidentes a la luz de la exposición que se muestra abajo.
BREVE DESCRIPCIÓN DE LOS DIBUJOS FIGURA 1 ilustra un dispositivo de computación ejemplar que puede ser usado en un aspecto de la presente invención. FIGURA 2 ilustra un dispositivo móvil ejemplar que puede ser usado en un aspecto de la presente invención. FIGURA 3 representa una modalidad ejemplar de un dispositivo de computación inteligente que puede ser usado en una modalidad de la presente invención. FIGURA 4 representa un diagrama lógico de flujo ejemplar de una modalidad de interacción libre de visión a través de percepción ambiental DESCRIPCIÓN DETALLADA Modalidades de la presente invención serán ahora descritas más detalladamente de aquí en adelante con referencia a los dibujos acompañantes, que forman una parte de esto, y que muestran, por medio de la ilustración, modalidades ejemplares específicos para practicar la invención. Esta invención puede, de cualquier modo, presentarse en muchas formas diferentes y no deben interpretarse como limitando las modalidades dispuestas aquí, más bien, estas modalidades son provistas para que esta exposición sea íntegra y completa, y pueda transmitir completamente el alcance de la invención para aquellos expertos en la técnica. Entre otras cosas, la presente invención puede incorporarse como métodos o dispositivos. De acuerdo a esto, la presente invención puede tomar la forma de una modalidad completamente de hardware, una modalidad completamente de software, o una modalidad que comparta aspectos de software y hardware. La siguiente descripción detallada no se debe, entonces, tomar en un sentido limitado.
Modalidades ilustrativas de un sistema v método para una interacción libre de visión con un dispositivo de computación a través de percepción ambiental Indicado sucintamente, aspectos de la presente invención incluyen un sistema y método para una interacción libre de visión con un dispositivo de computación a través de la percepción ambiental. Aspectos de la presente invención también incluyen monitoreo de las condiciones ambientales para poder distinguir un impacto no ambiental (por ejemplo el impacto de usuario), de condiciones ambientales. Las condiciones ambientales pueden dar un contexto a impactos no ambientales. En general, un impacto no ambiental puede desempeñar diferentes funciones dependiendo de la condición ambiental actual. FIGURA 3 representa un sistema ejemplar 300 para la interacción con un dispositivo de computación usando la percepción ambiental. El sistema 300 representa una visión general del sistema de la presente invención. El sistema 300 puede incluir varias configuraciones sin apartarse del espíritu y el ámbito de la presente invención. El sistema 300 puede estar integrado como una combinación de elementos de software y hardware, un sistema operativo o cualquier combinación de los mismos. Hardware, bases de datos, software, o aplicaciones referidas aquí pueden ser integradas como un elemento único o incluir varios elementos en comunicación entre unos y otros. Elementos de software y hardware son representados aquí sólo por propósitos explicativos y no para la limitación de la configuración a múltiples elementos o un único elemento desempeñando varias funciones. Por ejemplo, en la FIGURA 3, un dispositivo de computación inteligente 302 puede incluir sensores de percepción de ambiental 304, regulaciones de usuario 306, interpretador 308, generador de comando 310 y aplicaciones 312. Los números de referencia 304-312 pueden incluir programas separados, y hardware, un único programa con hardware integrado o cualquier combinación de los mismos. El dispositivo de computación inteligente 302 puede incluir un dispositivo de computación 1 00 como se ejemplifica en la FIGURA 1 o un dispositivo de computación inteligente 302 puede incluir un dispositivo de computación móvil 200 como se ejemplifica en la FIGURA 2. Un dispositivo de computación inteligente 302 puede incluir teléfono, teléfono celular, teléfono satelital, localizador personal, dispositivo de computación estacionario, dispositivo de computación móvil, dispositivo televisivo, dispositivo de audio móvil, dispositivo de reloj, o cualquier otro dispositivo al que se le pueda implementar la percepción ambiental para facilitar la interacción libre de visión para ejecutar comandos Los sensores de percepción ambiental 304 monitorean las condiciones actuales ambientales, que pueden dar contexto a un impacto no ambiental. Las condiciones monitoreadas son mandadas al interpretador 308 y el interpretador 308 interpreta las condiciones ambientales a la luz de las regulaciones de usuario 306. Indicado sucintamente, los sensores de percepción ambiental 304 determinan las condiciones actuales ambiental, y las regulaciones de usuario 306 identifican qué función provoca un impacto no ambiental cuando una condición ambiental particular es captada. Cuando el impacto no ambiental es uno que ha sido identificado en la programación del usuario 306, el generador de comando 310 puede generar un comando para se ejecutado en una o más aplicaciones 312. Los sensores de percepción ambiental 304 pueden incluir uno o más sensores que facilitan la identificación de un impacto no ambiental (por ejemplo un toque) y provee el contexto al impacto. El acelerómetro 314 mide o identifica aceleraciones, vibraciones y/o movimientos del dispositivo de computación inteligente 302. Por ejemplo, el acelerómetro 314 puede identificar que un usuario está caminando, montando una bicicleta, o en un tren identificando el patrón rítmico de estas actividades. Por medio de la identificación de un patrón rítmico, el acelerómetro 314 puede también identificar impactos no ambientales que varían del patrón rítmico de la actividad. Un impacto no ambiental puede incluir cualquier tipo de impacto que el acelerómetro 314 identifique como no siendo provisto por el ambiente. Por ejemplo, un impacto no ambiental puede incluir un toque al dispositivo, el movimiento del dispositivo de un modo en particular, la detención del dispositivo, etc. Por ejemplo, el acelerómetro 314 pude identificar que el usuario está montando una bicicleta por las vibraciones y movimientos repetidos que son indicativos del montado de una bicicleta. El acelerómetro 314 puede no indicar que estas vibraciones y movimientos son impactos no ambientales debido al patrón. De cualquier modo, si un usuario toca el dispositivo de computación inteligente 302 mientras anda en bicicleta, el acelerómetro 314 puede mandar esta información al interpretador 308 para determinar que función implica el toque. El interpretador 308 puede incluir cualquier tipo de algoritmo de probabilidad, calculadores estimativos y estadísticos para determinar la probabilidad de las condiciones ambientales y los impactos no ambientales. En una modalidad, un algoritmo Bayesiano se utiliza para determinar probabilidad. Los sensores de percepción ambiental 304 pueden también incluir el sensor de localización 316. El sensor de localización 316 puede identificar la locación de un dispositivo de computación inteligente 302. El sensor de localización 316 puede incluir un sensor de Sistema de Posicionamiento Global ("GPS"), un sensor de Fidelidad Inalámbrico ("Wi-Fi"), o un sensor de Red de Área Local Inalámbrico. Sucintamente, indicado, el sensor de localización 316 puede identificar en dónde está localizado el dispositivo de computación inteligente 302 y mandar esta información al interpretador 308 para determinar si la información de la locación provee contexto a la programación del usuario 306. Por ejemplo, el sensor de localización 316 puede identificar que el dispositivo de computación inteligente 302 se encuentra en una sala de reunión. La regulación del usuario 306 puede indicar que el dispositivo de computación inteligente 302 se tiene que silenciar a partir de un toque si la locación es una sala de juntas. De acuerdo a esto si una acción de audio ocurre y un usuario toca el dispositivo, el generador de comando 310 genera un comando silenciador y lo manda a las aplicaciones 312. Como en otro ejemplo, un sensor de localización 316 puede identificar que el dispositivo de computación inteligente 302 está en un gimnasio. Las regulaciones de usuario 306 pueden indicar que el dispositivo de computación 302 debe brincar una canción cuando se hace un toque único si la locación es un gimnasio. De acuerdo a esto, si una aplicación está tocando música y un usuario toca el dispositivo, el generador de comando 310 genera un comando de brinco de canción para una aplicación de música. Sensores de percepción ambiental 304 pueden también incluir un sensor de conductancia 31 8. El sensor de conductancia 318 puede identificar el tacto. Dicho de otro modo, el sensor de conductancia 318 puede identificar cuando un usuario está sosteniendo el dispositivo de computación inteligente 302. Esta información puede ser enviada a un interpretador 308 y el interpretador 308 puede identificar impactos no ambientales cuando el dispositivo de computación inteligente 302 está siendo sostenido. Por ejemplo, un toque sencillo puede responder una llamada telefónica entrante mediante el modo de conferencia y un toque doble puede enviar la llamada entrante a un buzón de llamadas. Cuando las regulaciones de usuario 306 son implicadas, el generador de comando 310 puede generar un comando para aplicaciones 312. Sensores de percepción ambiental 304 pueden incluir además un sensor de audio 320. Dicho sucintamente, el sensor de audio 320 puede identificar elementos de audio o ruido en el ambiente. El sensor de audio 320 puede proveer un futuro contexto a un impacto no ambiental. Como un ejemplo, un usuario puede estar manejando un coche y tener el radio tocando con un volumen alto. El sensor de audio 320 puede identificar la magnitud del volumen y enviar esta información a un interpretador 308. El interpretador 308 puede haber recibido las regulaciones de usuario 306 que indican cuando el volumen está por arriba de cierta magnitud, un toque sencillo al dispositivo incrementará el volumen del dispositivo un incremento. Cuando las regulaciones de usuario 306 están implicadas en esta manera, el generador de comando 310 genera un comando para las aplicaciones 312. Sensores de percepción ambiental 304 pueden incluir además sensores de luz 322. Como un ejemplo, un usuario puede estar en un cine y el sensor de luz 322 indica que está oscuro. El sensor de luz 322 puede enviar esta información al interpretador 308. Las regulaciones de usuario 306 pueden indicar que cuando está oscuro, un toque sencillo al dispositivo de computación inteligente 302 apaga el dispositivo. Cuando las regulaciones de usuarios 306 están implicadas de esta manera, el generador de comando 310 genera un comando para las aplicaciones 312. Sensores de percepción ambiental 304 pueden incluir otros sensores 324. Otros sensores 324 pueden incluir un sensor de temperatura, un sensor de calor, un sensor de humo, un sensor de altitud o cualquier otro tipo de sensor que pueda ser útil para identificar condiciones ambientales. Por ejemplo, sensores de calor y humo pueden en última instancia hacer que el generador de comando 310 haga una llamada al departamento de bomberos o de policía a partir de un impacto no ambiental. A través de un impacto no ambiental, sensores de altitud pueden en última instancia hacer que el generador de comando 310 apague el dispositivo de computación 302 debido a que el usuario está a bordo de un avión. Algunos aspectos de los sensores de percepción ambiental 304 son para identificar lo que el usuario está haciendo, en donde el usuario se encuentra localizado, y qué condiciones de ambiente existen. Esta información puede usarse entonces para determinar si un impacto no ambiental ha sucedido y qué función invoca el impacto no ambiental. En una modalidad, el acelerómetro 314 es un sensor de percepción ambiental primario 304 y los sensores 316-324 proveen contexto al impacto no ambiental para determinar que funcionalidad es implicada. Las regulaciones de usuario 306 pueden ser regulaciones o regulaciones de falla que un usuario ingresa para identificar un comando relacionado con una condición ambiental. Las regulaciones de usuario 306 pueden incluir preferencias 326. Preferencias 326 pueden incluir comandos que son generados cuando los sensores de percepción ambiental 304 indican una condición ambiental. Por ejemplo, preferencias 326 pueden indicar que cuando está oscuro y el dispositivo de computación inteligente 302 no se está moviendo, los eventos de audio serán silenciados a partir de un impacto no ambiental. Las regulaciones de usuario 306 pueden también incluir condiciones 328. Las condiciones 328 pueden incluir condiciones internas de un dispositivo de computación 302. Por ejemplo, cuando el dispositivo de computación inteligente 302 incluye un teléfono, una entrada de llamada telefónica puede ser una condición. Como otro ejemplo, las condiciones 328 pueden incluir eventos calendarizados. Un evento calendarizado puede ser una reunión o una cita registrada en un calendario que identifica donde el usuario está supuestamente localizado. La información en las condiciones 328 acerca de dónde el usuario se supone que se localiza puede facilitar al interpretador 308 la determinación en dónde el usuario se localiza actualmente. Dicho sucintamente, las condiciones 328 puede identificar condiciones del dispositivo de computación inteligente 302 y proveer contexto a impactos no ambientales. Las regulaciones de usuario 306 pueden incluir también acciones 330. Las acciones 330 pueden incluir interacciones con el dispositivo de computación inteligente 302 que indica un impacto no ambiental. Por ejemplo, un usuario puede regular acciones 330 para identificar un toque sencillo teniendo una primera entrada significante, un toque doble teniendo una segunda entrada significante, y un triple toque teniendo una tercera entrada significante. Como se estableció arriba, el toque puede ser identificado por el acelerómetro 314 como un disturbio en una condición ambiental. Las regulaciones de usuario 306 pueden incluir además otras regulaciones 332. Otras regulaciones 332 pueden incluir cualquier tipo de regulaciones que facilite la identificación de un impacto no ambiental y relaciona esta información con un comando para una aplicación. Las regulaciones de usuario 306 pueden estar asociadas con cualquier aplicación asociada con un dispositivo de computación inteligente 302. El interpretador 308 puede recibir las regulaciones de usuario 306 y los datos de los sensores de percepción ambiental 304. El interpretador 308 compara las regulaciones de usuario 306 y los datos de los sensores de percepción ambiental 304 para determinar si un impacto no ambiental ha ocurrido. El interpretador 308 puede incluir cualquier tipo de algoritmo de probabilidad, calculadores estimativos o estadísticos para determinar la probabilidad de las condiciones ambientales y los impactos no ambientales. En una modalidad un algoritmo Bayesiano es utilizado para determinar la probabilidad. El generador de comando 310 genera un comando a la luz de las regulaciones de usuario 306 y la información proveniente de los sensores de percepción ambiental 304. El comando es ejecutado en las aplicaciones 312.
El dispositivo de computación inteligente 302 puede incluir cualquier combinación de sensores de percepción ambiental 304, regulaciones de usuario 306 y las aplicaciones 312. Por ejemplo, el dispositivo de computación inteligente 302 puede incluir una pluralidad de sensores de percepción ambiental 304 que monitorean la pluralidad de condiciones ambientales. Las regulaciones de usuario 306 pueden incluir una pluralidad de diferentes tipos de impactos no ambientales, que son activados dependiendo de las condiciones ambientales particulares. Las regulaciones de usuario 306 pueden entonces implicar una o más aplicaciones 312 dependiendo del tipo del impacto no ambiental. De esta manera, un impacto no ambiental (por ejemplo un toque), mientras se está montando una bicicleta, puede invocar un comando y aplicación diferentes que el mismo impacto no ambiental que se usa cuando se está en una reunión. Igualmente, un impacto no ambiental que se da durante una reunión puede implicar comandos y aplicaciones diferentes a las del mismo impacto no ambiental mientras se está en el cine. La combinación de los sensores de percepción ambiental 304, las regulaciones de usuario, y las aplicaciones 312 es interminable y los ejemplos aquí expuestos no intentan limitar el alcance de la presente invención. Un ejemplo para el uso del sistema 300, un usuario puede regular preferencias 326, condiciones 328 y acciones 330. Un usuario puede regular las regulaciones de usuario 306 de manera que cuando el usuario esté en una reunión y el teléfono suene, un toque sencillo al teléfono silencie el timbre y un toque doble mande la llamada directamente al buzón de llamadas. Cuando el usuario está en una reunión, el acelerómetro 314 puede indicar que el teléfono no se está moviendo y por lo tanto implica que el usuario está sentado. El sensor de localización 316 puede identificar que el teléfono está en un cuarto en particular en donde se supone que la reunión tomará lugar. El sensor de conductancia 318 puede indicar que el usuario no está deteniendo el teléfono. El sensor de audio 320 puede indicar que hay individuos hablando. El sensor de luz 322 puede indicar que hay ausencia de luz lo que implica que el teléfono está en una bolsa. El interpretador 308 recibe la información y determina que el usuario está de hecho en una reunión y las regulaciones de impactos no ambientales para una reunión son invocadas. Si una llamada de teléfono es recibida durante una reunión y el usuario toca el teléfono, el acelerómetro 314 identifica el toque como un impacto no ambiental. El interpretador 308 identifica el toque en relación a una función de silencio. El generador de comando 310 genera un comando para silenciar el timbre del teléfono. Este comando es entonces enviado a las aplicaciones 312 apropiadas. De esta manera, el sistema 300 monitoria el ambiente y provee al usuario de una manera de interacción con dispositivos de computación inteligentes 302 a través de impactos no ambientales. Dicho sucintamente, esta manera de interacción permita al usuario interactuar con el dispositivo de computación inteligente 302 de una forma libre de visión. La FIGURA 4 representa un diagrama de flujo lógico de una modalidad de interacción libre de visión con un dispositivo móvil a través de la percepción ambiental. El proceso 400 empieza en el bloque de comienzo 402 y va hacia el bloque 404 en donde el ambiente es monitoreado. Uno o más sensores de percepción ambiental pueden utilizarse para monitorear el ambiente. En una modalidad, el monitoreo incluye un acelerómetro para monitorear las aceleraciones, movimientos y/o vibraciones. De esta manera, el acelerómetro puede indicar desviaciones de impacto no ambiental, las que pueden indicar una entrada del usuario. En otra modalidad el monitoreo puede incluir monitoreo de movimientos, locación, conductancia, audio, luz, altitud, calor, aire, humo, o cualquier otro tipo de condición de ambiente que puede ser útil para proveer contexto a un impacto no ambiental. En el bloque 406, el proceso 400 determina si la regulación de usuario esta implicada por la condición actual ambiental. Cuando la regulación de usuario no esta implicada, el proceso 400 regresa al bloque 404, en donde el ambiente es monitoreado. Cuando la regulación de un usuario es implicada el proceso 400 va al bloque 408. En el bloque 408, las regulaciones de usuario que están implicadas por las condiciones ambientales son activadas. Por ejemplo, cuando las condiciones ambientales indican que el usuario está montando una bicicleta y escuchando música, las regulaciones activadas del usuario pueden incluir un toque sencillo al dispositivo indicando que el usuario desea silenciar la música. Una vez que las regulaciones de usuario están activadas, el proceso 400 fluye hacia el bloque 410 en donde es determinado si un impacto no ambiental ha ocurrido. Para continuar con el ejemplo anterior, la condición ambiental puede incluir un dispositivo de computación inteligente que rebota contra el usuario mientras el usuario escucha música y monta la bicicleta. Un impacto no ambiental puede incluir el toque del usuario sencillo en el dispositivo de computación inteligente. Un acelerómetro puede identificar al toque como un impacto no ambiental y no como el dispositivo que rebota contra el usuario. Cuando un impacto no ambiental no sucede, el proceso 400 regresa al bloque 404 en donde el ambiente es monitoreado. Cuando un impacto no ambiental sucede, el proceso 400 continúa hacia el bloque 412. En el bloque 412, el proceso 400 determina si el impacto no ambiental implica un comando para una aplicación o aplicaciones en particular. Por ejemplo, si el usuario indica que un toque sencillo silencia la música, un toque sencillo implicaría este comando. Contrariamente, un toque doble que no ha sido asignado como impacto no ambiental puede no implicar un comando. Cuando el comando es implicado, el proceso 400 fluye al bloque 414. En el bloque 414 el comando es generado para la aplicación y en el bloque 416 la aplicación ejecuta el comando. Continuando con el ejemplo anterior, un comando silenciador puede ser generado y ejecutado en un reproductor de música para silenciar el dispositivo de computación inteligente. Una vez que el comando ha sido ejecutado, el proceso 400 fluye de regreso al bloque 404 en donde el ambiente es monitoreado.
Ambiente en Operación Ilustrativo En referencia a la FIGURA 1 , un sistema ejemplar para la ¡mplementación de la invención incluye un dispositivo de computación, tal como el dispositivo de computación 100. En una configuración básica, el dispositivo de computación 1 00 típicamente incluye al menos una unidad de procesamiento 102 y un sistema de memoria 104. Dependiendo en la configuración exacta y el tipo de dispositivo de computación, el sistema de memoria 104 puede ser volátil (como una RAM), o no volátil (como una ROM, una memoria flash, y similares) o alguna combinación de los dos. Los sistemas de memoria 104 incluyen típicamente un sistema operativo 105, una o más aplicaciones 1 06, y puede incluir datos de programa 1 07. En una modalidad, las aplicaciones 106 además incluyen la aplicación 120 para interacción libre de visión. En otra modalidad, el sistema operativo 105 incluye interacción libre de visión. Esta configuración básica es ilustrada en la FIGURA 1 por aquellos componentes dentro de la línea puntada 108. El dispositivo de computación 100 puede también tener rasgos o funcionalidades adicionales. Por ejemplo, el dispositivo de computación 100 puede también incluir dispositivos de memoria de datos adicionales (removible y/o no removible) como, por ejemplo, discos magnéticos, discos ópticos, o casetes. Esta memoria adicional se ilustra en la FIGURA 1 mediante la memoria removible 109 y la memoria no-removible 1 10. El medio de memoria de la computadora puede incluir un medio volátil y no volátil, removible y no removible implementado por cualquier método o tecnología para memorizar información, tal como instrucciones legibles por computadora, estructuras de datos, módulos de programa u otros datos. La memoria del sistema 104, la memoria removible 109 y la memoria no removible 1 10 todas son ejemplos de medios de memoria de computadora. El medio de memoria de computadora incluye, pero no está limitado a, RAM, ROM EEPROM, memoria flash u otra tecnología de memoria, CD-ROM, discos digitales versátiles (DVD) u otra memoria óptica, casetes magnéticos, cintas magnéticas, memoria de disco magnético u otro dispositivo de memoria magnético o cualquier otro medio que pueda ser usado para guardar la información necesaria y que pueda ser accesada por el dispositivo de computación 100. Cualquier medio de memoria de computadora puede ser parte del dispositivo 100. El dispositivo de computación 100 puede también tener uno o varios dispositivos de entrada 1 12 como el de teclado, ratón, pluma, dispositivo de entrada de voz, dispositivo de entrada de toque, etc. Uno o varios dispositivos de salida 1 14 como una pantalla, bocinas, impresora, etc. también pueden ser incluidos. Todos estos dispositivos se conocen en la técnica y no necesitan ser discutidos largamente en la presente.
El dispositivo de computación 100 también contiene una o varias conexiones de comunicación 1 16 que permiten que el dispositivo se comunique con otros dispositivos de computación 1 1 8 como con una red, o una red inalámbrica. Las conexiones de comunicación 1 16 son un ejemplo de medio de comunicación. El medio de comunicación, típicamente, incluye instrucciones legibles por una computadora, estructuras de datos, módulos de programa u otros datos en una señal modulada de datos como una onda portadora u otros mecanismos de transporte e incluye cualquier medio de entrega de información. El término "señal modulada de datos" significa una señal que tiene una o más de sus características programadas o cambiadas de tal manera que codifica la información de la señal. A manera de ejemplo y no de limitación, un medio de comunicación incluye un medio cableado como la red cableada o una conexión directa cableada, y un medio inalámbrico como puede ser un acústico, RF, infrarrojo u otro medio inalámbrico. El término medio legible por una computadora como se usa aquí incluye tanto medio de memoria como medio de comunicación. La FIGURA 2 ilustra un dispositivo de computación móvil que puede ser usado en una modalidad ejemplar de la presente invención. Con referencia a la FIGURA 2, un sistema ejemplar para la implementación de la invención incluye un dispositivo de computación móvil, como el dispositivo de computación móvil 200. El dispositivo de computación móvil 200 tiene un procesador 260, una memoria 262, una pantalla 228, y un teclado 232. La Memoria 262 generalmente incluye tanto la memoria volátil (ejemplo RAM) como la memoria no volátil (ejemplo ROM, Memoria Flash, o similar). El dispositivo de computación móvil 200 incluye un sistema operativo 264, que reside en la memoria 262 y ejecuta en un procesador 260. El teclado 232 puede ser un teclado de marcación por presión de botones numéricos (como el de los teléfonos típicos), o un teclado multi-tecla (como los teclados convencionales). La pantalla 228 puede ser una pantalla de cristal líquido, o cualquier otra pantalla comúnmente usada en dispositivos de computación móviles. La pantalla 228 puede ser sensible al tacto, y entonces también funcionaría como un dispositivo de entrada. Uno o más programas de aplicación 266 están cargados en la memoria 262 y corren en el sistema operativo 263. Ejemplos de programas de aplicación incluyen programas marcadores de teléfono, programas de correo electrónico, programas de organización, programas PIM (gestión de información personal), programas de procesadores de palabras, programas de hojas de cálculo, programas navegadores de Internet, y más. El dispositivo de computación móvil 200 también incluye memoria no volátil 268 dentro de la memoria 262. La memoria no volátil 268 puede ser usada para guardar información persistente que no debe perderse si al dispositivo de computación móvil 200 se le baja la energía. Las aplicaciones 266 usan y guardan información en la memoria 268, de correos electrónicos u otros mensajes usados por una aplicación de correo electrónico, información de contactos usada por PIM, información de citas usada por un programa de organización, documentos usados por una aplicación procesadora de palabras, y similares. En una modalidad, las aplicaciones 266 incluyen además la aplicación 280 para la interacción libre de visión. En otra modalidad, el sistema operativo 264 incluye interacción libre de visión. El dispositivo de computación móvil 200 tiene una fuente de energía 270, que puede ser implementada por una o más baterías. La fuente de energía 270 puede además incluir una fuente de energía externa, como un adaptador AC o un cuna de empalme de poder, que suplementa o recarga las baterías. El dispositivo de computación móvil 200 es mostrado con dos tipos de mecanismos de notificación externa: LED 240 y una inferíase de audio 274. Estos dispositivos pueden estar directamente acoplados a la fuente de poder 270 de manera que cuando están activados, permanezcan prendidos por una duración dictada por el mecanismo de notificación no obstante que el procesador 260 y otros componentes puedan apagarse para conservar la energía de las baterías. El LED 240 puede estar programado para permanecer prendido indefinidamente hasta que el usuario tome acción para indicar el estado de encendido del dispositivo. La interfase de audio 274 es usada para proveer señales audibles y recibir señales audibles del usuario. Por ejemplo la inferíase de audio 274 puede estar acoplada a una bocina para proveer una salida audible y al micrófono para recibir una entrada audible, por ejemplo para facilitar una conversación telefónica.
El dispositivo de computación móvil 200 también incluye una capa de interfase radio 272 que desempeña la función de transmitir y recibir comunicaciones, como comunicaciones de frecuencia de radio. La capa de interfase de radio 272 facilita la conectividad inalámbrica con el dispositivo móvil de computación 200 y el mundo exterior, a través de un portador de comunicaciones o un proveedor de servicio. Las transmisiones a y desde la capa de interfase de radio 272 están conducidas bajo el control del sistema operativo 264. En otras palabras, las comunicaciones recibidas por la capa de interfase de radio 272 pueden ser diseminadas a los programas de aplicación 266 a través del sistema operativo 264, y viceversa. Las especificaciones de arriba, ejemplos y datos proveen una descripción completa de la manufactura y uso de la composición de la invención. Ya que muchas modalidades de la invención pueden hacerse sin salir del espíritu y el ámbito de la invención, la invención reside en las reivindicaciones que están anexadas a continuación:

Claims (1)

  1. REIVINDICACIONES 1 . Un método implementado en una computadora para interacción libre de visión con un dispositivo de computación a través de la percepción ambiental, comprendiendo: el monitoreo de las condiciones ambientales; la distinción de un impacto no ambiental de las condiciones ambientales; y en respuesta a un impacto no ambiental, la ejecución de una función. 2. El método implementado en una computadora de la reivindicación 1 , comprendiendo además el proporcionar una regulación de impacto no ambiental, en donde la regulación de impacto no ambiental incluye al menos una de: impacto de toque sencillo, impacto de doble toque, impacto de triple toque, un movimiento, una aceleración o un toque. 3. El método implementado en una computadora de la reivindicación 1 , en donde las regulaciones de impacto no ambiental incluye una pluralidad de regulaciones de impactos no ambientales asociadas a la pluralidad de condiciones ambientales. 4. El método implementado en una computadora de la reivindicación 1 , en donde el monitoreo de las condiciones ambientales además incluye el monitoreo de patrones de impacto ambiental. 5. El método ¡mplementado en una computadora de la reivindicación 4, en donde la distinción del impacto no ambiental de las condiciones ambientales incluye además la detección de una variante en el patrón de impacto ambiental. 6. El método implementado en una computadora de la reivindicación 4, comprendiendo además proporcionar una regulación de impacto no ambiental, en donde el monitoreo de las condiciones ambientales además incluye el monitoreo de al menos uno de: locación, conductancia, audio, luz, altitud, o temperatura. 7. El método implementado en una computadora de la reivindicación 6, en donde la regulación del impacto no ambiental es al menos parcialmente dependiente de la condición ambientales. 8. El método implementado en una computadora de la reivindicación 1 , en donde la función está asociada con al menos una aplicación. 9. El método implementado en una computadora de la reivindicación 1 , en donde la función incluye una pluralidad de funciones en donde cada función es asociada con al menos una aplicación. 10. Un medio legible por computadora teniendo instrucciones ejecutables por computadora realizando operaciones para identificar un impacto no ambiental a través de la percepción ambiental, las operaciones comprendiendo: provisión de las regulaciones de impacto de usuario para accionar una función; monitoreo del ambiente para detectar patrones ambientales; y accionar una función cuando un impacto de usuario es distinguido de los patrones ambientales. 1 1 . El medio legible por computadora de la reivindicación 10, en donde el monitoreo del ambiente además incluye la determinación de una variante de los patrones de impactos ambientales. 12. El medio legible por computadora de la reivindicación 1 1 , en donde el monitoreo del ambiente además incluye la detección de la entrada de toque del usuario. 13. El medio legible por computadora de la reivindicación 12, en donde el monitoreo del ambiente además incluye el monitoreo de al menos uno de: locación, conductancia, audio, luz, altitud o temperatura. 14. El medio legible por computadora de la reivindicación 13, en donde las regulaciones de impacto de usuario son al menos parcialmente dependientes de los patrones ambientales. 15. Un dispositivo de computación inteligente para la interacción libre de visión a través de ia percepción ambiental, comprendiendo: un medio de percepción ambiental para el monitoreo de las condiciones ambientales; un medio de interpretación para la distinción de un impacto no ambiental de las condiciones ambientales; y un medio generador para la generación de un comando cuando ocurre un impacto no ambiental. 16. El dispositivo de computación inteligente de la reivindicación 15, en donde el dispositivo de computación inteligente incluye al menos uno de: teléfono, teléfono celular, teléfono de satélite, localizador, dispositivo de computación estacionario, dispositivo de computación móvil, dispositivo de televisión, dispositivo de audio móvil, dispositivo de reloj, dispositivo de computación estacionario, o dispositivo de computación móvil. 17. El dispositivo de computación inteligente de la reivindicación 15, en donde los medios de percepción ambiental incluyen además un acelerómetro para detectar las aceleraciones. 18. El dispositivo de computación inteligente de la reivindicación 15, comprendiendo además un medio de regulación para proporcionar regulaciones de impacto no ambiental, en donde el medio de regulación es al menos parcialmente dependiente de las condiciones actuales ambientales. 19. El dispositivo de computación inteligente de la reivindicación 1 5, en donde los medios de percepción ambiental además incluyen al menos uno de: sensor de locación, sensor de conductancia, sensor de audio, sensor de luz, sensor de temperatura o un sensor de altitud. 20. El dispositivo de computación inteligente de la reivindicación 1 8, comprendiendo además al menos un medio de aplicación para la ejecución del comando.
MXPA06002335A 2005-03-31 2006-02-28 Sistema y metodo para interaccion libre de vision con un dispositivo de computacion a traves de la recepcion ambiental. MXPA06002335A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/097,870 US8130193B2 (en) 2005-03-31 2005-03-31 System and method for eyes-free interaction with a computing device through environmental awareness

Publications (1)

Publication Number Publication Date
MXPA06002335A true MXPA06002335A (es) 2006-09-29

Family

ID=36607405

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA06002335A MXPA06002335A (es) 2005-03-31 2006-02-28 Sistema y metodo para interaccion libre de vision con un dispositivo de computacion a traves de la recepcion ambiental.

Country Status (7)

Country Link
US (1) US8130193B2 (es)
EP (1) EP1708075A3 (es)
JP (1) JP5383966B2 (es)
KR (1) KR101247055B1 (es)
CN (1) CN1841274B (es)
BR (1) BRPI0600779B1 (es)
MX (1) MXPA06002335A (es)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060223547A1 (en) * 2005-03-31 2006-10-05 Microsoft Corporation Environment sensitive notifications for mobile devices
US7412224B2 (en) * 2005-11-14 2008-08-12 Nokia Corporation Portable local server with context sensing
CA2578390A1 (en) * 2007-01-12 2008-07-12 Truecontext Corporation Method and system for managing mobile applications
US20080183313A1 (en) * 2007-01-29 2008-07-31 Johan Lundquist System, device and method for steering a mobile terminal
US20090094283A1 (en) * 2007-10-03 2009-04-09 Microsoft Corporation Active use lookup via mobile device
CA2704923C (en) 2007-11-09 2016-04-05 Google, Inc. Activating applications based on accelerometer data
JP2009278294A (ja) * 2008-05-13 2009-11-26 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置、情報処理方法、情報処理プログラム、及び携帯端末装置
US9648488B2 (en) * 2008-10-24 2017-05-09 Alcatel-Lucent Usa Inc. Methods and systems for providing user information in telecommunications networks
ES2349099B1 (es) * 2009-02-09 2011-10-27 Deimos Space, S.L. Sistema y procedimiento de programación visual de dispositivos móviles desde el propio dispositivo.
US8195108B2 (en) 2009-03-25 2012-06-05 Qualcomm Incorporated Altitude-dependent power management
JP2010278595A (ja) * 2009-05-27 2010-12-09 Nippon Syst Wear Kk 携帯電話の動作モード設定装置、方法、プログラム、並びに該プログラムを格納したコンピュータ可読媒体
EP2284782B1 (en) * 2009-08-13 2013-07-24 Research In Motion Limited Method and apparatus for modifying a scheduling database
US8396902B2 (en) * 2009-08-13 2013-03-12 Research In Motion Limited Method and apparatus for modifying a scheduling database
KR20110074024A (ko) * 2009-12-24 2011-06-30 삼성전자주식회사 멀티미디어 기기
WO2011141761A1 (en) 2010-05-13 2011-11-17 Nokia Corporation Method and apparatus for providing context sensing and fusion
US9241064B2 (en) * 2010-05-28 2016-01-19 Google Technology Holdings LLC Smart method and device for adaptive user interface experiences
US8473575B2 (en) * 2010-08-26 2013-06-25 Ford Global Technologies, Llc Methods and apparatus for remote activation of an application
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US8397982B2 (en) 2010-12-17 2013-03-19 Motorola Mobility Llc Method and device for recognition of docking stations
KR101821197B1 (ko) * 2010-12-21 2018-01-23 엘지전자 주식회사 이동단말기 및 그 제어방법
US8819156B2 (en) 2011-03-11 2014-08-26 James Robert Miner Systems and methods for message collection
US9419928B2 (en) * 2011-03-11 2016-08-16 James Robert Miner Systems and methods for message collection
US9363361B2 (en) * 2011-04-12 2016-06-07 Microsoft Technology Licensing Llc Conduct and context relationships in mobile devices
JPWO2012160867A1 (ja) * 2011-05-20 2014-07-31 Necカシオモバイルコミュニケーションズ株式会社 携帯端末、制御方法およびプログラム
US20130254194A1 (en) * 2012-03-23 2013-09-26 Fujitsu Limited Providing setting recommendations to a communication device
US8996767B2 (en) * 2012-05-02 2015-03-31 Qualcomm Incorporated Mobile device control based on surface material detection
US9134952B2 (en) * 2013-04-03 2015-09-15 Lg Electronics Inc. Terminal and control method thereof
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
US20150162000A1 (en) * 2013-12-10 2015-06-11 Harman International Industries, Incorporated Context aware, proactive digital assistant
CN103942047A (zh) * 2014-03-28 2014-07-23 小米科技有限责任公司 用户指令执行方法及装置
US9807219B2 (en) 2014-03-28 2017-10-31 Xiaomi Inc. Method and terminal for executing user instructions
KR102243235B1 (ko) * 2014-08-14 2021-04-22 삼성전자주식회사 전자 장치, 그 제어 방법, 기록 매체 및 상기 전자 장치와 연동되는 이어잭 단자 캡
US20160149547A1 (en) * 2014-11-20 2016-05-26 Intel Corporation Automated audio adjustment
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
EP3402174A1 (en) * 2017-05-12 2018-11-14 Vestel Elektronik Sanayi ve Ticaret A.S. A mobile phone mute system
CN107888769B (zh) * 2017-11-07 2020-11-27 Oppo广东移动通信有限公司 场景模式启动方法、装置及终端
CN110225446B (zh) * 2018-03-01 2021-01-29 北京嘀嘀无限科技发展有限公司 一种识别驾驶行为的系统、方法、装置和存储介质
CN112263150B (zh) * 2020-09-21 2022-09-13 华帝股份有限公司 可自动弹出的水箱、应用其的蒸汽烹饪设备及控制方法
CN112205876A (zh) * 2020-09-21 2021-01-12 华帝股份有限公司 一种水箱结构、应用其的蒸汽烹饪设备及控制方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JPH09244781A (ja) 1996-03-12 1997-09-19 Hitachi Ltd 環境適合情報アクセス方法
JPH09305300A (ja) * 1996-05-15 1997-11-28 Mitsubishi Electric Corp アプリケーション制御装置
US5923848A (en) * 1996-05-31 1999-07-13 Microsoft Corporation System and method for resolving names in an electronic messaging environment
JPH1139093A (ja) 1997-07-15 1999-02-12 Toshiba Corp 情報処理装置およびポインティング装置
US6370566B2 (en) * 1998-04-10 2002-04-09 Microsoft Corporation Generating meeting requests and group scheduling from a mobile device
WO1999023579A1 (en) * 1997-11-05 1999-05-14 Microsoft Corporation Notification scheduling system on a mobile device
AU743455B2 (en) * 1998-12-11 2002-01-24 Canon Kabushiki Kaisha Environment adaptive multimedia presentation
US6201554B1 (en) * 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US6549792B1 (en) * 1999-06-25 2003-04-15 Agere Systems Inc. Accelerometer influenced communication device
US6618716B1 (en) * 1999-07-30 2003-09-09 Microsoft Corporation Computational architecture for managing the transmittal and rendering of information, alerts, and notifications
JP3582433B2 (ja) * 1999-12-02 2004-10-27 日本電気株式会社 情報処理装置および情報処理方法
US6975874B1 (en) * 2000-06-09 2005-12-13 International Business Machines Corporation Portable phone that changes function according to its self-detected geographical position
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7458080B2 (en) * 2000-12-19 2008-11-25 Microsoft Corporation System and method for optimizing user notifications for small computer devices
US6762741B2 (en) * 2000-12-22 2004-07-13 Visteon Global Technologies, Inc. Automatic brightness control system and method for a display device using a logarithmic sensor
US7047285B2 (en) * 2001-02-16 2006-05-16 Microsoft Corporation System and method for providing a unified messaging scheme in a mobile device
JP3776808B2 (ja) 2001-02-27 2006-05-17 埼玉日本電気株式会社 携帯端末
WO2002088853A1 (en) * 2001-04-26 2002-11-07 Caveo Technology, Llc Motion-based input system for handheld devices
GB2375017A (en) * 2001-04-28 2002-10-30 Hewlett Packard Co Mobile computing device having diary and data transfer functions
JP2003296015A (ja) * 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
JP3999992B2 (ja) 2002-03-27 2007-10-31 三洋電機株式会社 携帯端末機器及び該携帯端末機器を用いた通信機器システム
US7016909B2 (en) * 2002-06-04 2006-03-21 Microsoft Corporation Method and system for expansion of recurring calendar events
US7072672B1 (en) * 2002-11-01 2006-07-04 Nokia Corporation Disposable mini-applications
JP2004212641A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 音声入力システム及び音声入力システムを備えた端末装置
US20040127198A1 (en) * 2002-12-30 2004-07-01 Roskind James A. Automatically changing a mobile device configuration based on environmental condition
US7574661B2 (en) * 2003-02-25 2009-08-11 Panasonic Corporation Application program prediction method and mobile terminal
US20040259536A1 (en) * 2003-06-20 2004-12-23 Keskar Dhananjay V. Method, apparatus and system for enabling context aware notification in mobile devices
US7221928B2 (en) * 2003-10-01 2007-05-22 Laird Mark D Mobile emergency notification system
JP2005181562A (ja) * 2003-12-18 2005-07-07 Pioneer Electronic Corp 調光制御装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、および、表示制御装置
US20050219228A1 (en) * 2004-03-31 2005-10-06 Motorola, Inc. Intuitive user interface and method
US7469155B2 (en) * 2004-11-29 2008-12-23 Cisco Technology, Inc. Handheld communications device with automatic alert mode selection
US20060153747A1 (en) * 2005-01-13 2006-07-13 Carrier Corporation Gas treatment adsorption-oxidation system
US7430439B2 (en) * 2005-01-31 2008-09-30 Research In Motion Limited User hand detection for wireless devices
US20060223547A1 (en) * 2005-03-31 2006-10-05 Microsoft Corporation Environment sensitive notifications for mobile devices

Also Published As

Publication number Publication date
KR101247055B1 (ko) 2013-03-25
US8130193B2 (en) 2012-03-06
CN1841274B (zh) 2010-10-13
BRPI0600779B1 (pt) 2018-05-08
EP1708075A2 (en) 2006-10-04
KR20060106640A (ko) 2006-10-12
JP2006285966A (ja) 2006-10-19
US20060221051A1 (en) 2006-10-05
CN1841274A (zh) 2006-10-04
BRPI0600779A (pt) 2006-11-28
JP5383966B2 (ja) 2014-01-08
EP1708075A3 (en) 2012-06-27

Similar Documents

Publication Publication Date Title
MXPA06002335A (es) Sistema y metodo para interaccion libre de vision con un dispositivo de computacion a traves de la recepcion ambiental.
US10318096B2 (en) Intelligent productivity monitoring with a digital assistant
US20200342869A1 (en) Electronic device and method for controlling voice signal
US7605714B2 (en) System and method for command and control of wireless devices using a wearable device
US20060223547A1 (en) Environment sensitive notifications for mobile devices
AU2010279768B2 (en) Portable terminal reflecting user's environment and method for operating the same
KR20170142140A (ko) 오디오 출력 시스템에 연결할 때의 스마트 오디오 재생
US20110037605A1 (en) Event Recognition And Response System
CN108320744A (zh) 语音处理方法和装置、电子设备、计算机可读存储介质
KR20110105625A (ko) 휴대 단말기의 향기 분사 방법 및 이를 지원하는 휴대 단말기
CN107544670A (zh) 具有力触发的非视觉响应的计算设备
CN108605073A (zh) 声音信号处理的方法、终端和耳机
CN101669084A (zh) 用于姿态检测的装置、方法和系统
CN108712566A (zh) 一种语音助手唤醒方法及移动终端
CN106095387A (zh) 一种终端的音效设置方法及终端
US20240195805A1 (en) Application running method and electronic device
CN105791591A (zh) 闹铃提醒方法及系统
CN106775680A (zh) 悬浮通知的处理方法、装置和移动终端
CN108494970B (zh) 终端状态信息的处理方法、装置、存储介质及终端
CN112394901A (zh) 音频输出模式调整方法、装置及电子设备
CN106792014B (zh) 一种推荐音频的方法、装置及系统
CN106231072B (zh) 消息提醒的控制方法、装置以及终端设备
CN110730946B (zh) 移动终端的音量控制方法、装置及存储介质和移动终端
CN108810274A (zh) 应用辅助功能的启动方法、装置、存储介质和终端
CN110543333A (zh) 针对处理器的休眠处理方法、装置、移动终端和存储介质

Legal Events

Date Code Title Description
FG Grant or registration