ES2842181T3 - Generación de notificaciones basadas en datos de contexto en respuesta a una frase hablada por un usuario - Google Patents

Generación de notificaciones basadas en datos de contexto en respuesta a una frase hablada por un usuario Download PDF

Info

Publication number
ES2842181T3
ES2842181T3 ES16795469T ES16795469T ES2842181T3 ES 2842181 T3 ES2842181 T3 ES 2842181T3 ES 16795469 T ES16795469 T ES 16795469T ES 16795469 T ES16795469 T ES 16795469T ES 2842181 T3 ES2842181 T3 ES 2842181T3
Authority
ES
Spain
Prior art keywords
notification
electronic device
spoken phrase
context
generate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16795469T
Other languages
English (en)
Inventor
Sungrack Yun
Taesu Kim
Sungwoong Kim
Heeman Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2842181T3 publication Critical patent/ES2842181T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Telephone Function (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Alarm Systems (AREA)

Abstract

Un procedimiento para generar una notificación realizado por un dispositivo electrónico, el procedimiento que comprende: recibir (410) una frase hablada; reconocer (420), mediante un procesador, la frase hablada como un comando para generar la notificación; detectar (430), mediante al menos un sensor, múltiples tipos de datos de contexto del dispositivo electrónico al reconocer la frase hablada, en el que los datos de contexto incluyen i) una imagen de un usuario, ii) valor de luz ambiente, iii) movimiento del dispositivo, y iv) un evento indicativo de una comunicación entrante no reconocida; determinar un valor de contexto ponderado para cada tipo de datos de contexto; determinar una puntuación de contexto añadiendo los valores de contexto ponderados, determinar (440), mediante el procesador, si se debe generar la notificación basándose en una comparación de la puntuación de contexto con un valor umbral; y generar (450), mediante el procesador, la notificación basada en la comparación y el comando.

Description

DESCRIPCIÓN
Generación de notificaciones basadas en datos de contexto en respuesta a una frase hablada por un usuario
CAMPO DE LA DIVULGACIÓN
[0001] La presente divulgación se refiere a la generación de una notificación mediante un dispositivo electrónico y, más específicamente, a la generación de una notificación para alertar a un usuario del dispositivo electrónico.
DESCRIPCIÓN DE LA TÉCNICA RELACIONADA
[0002] Recientemente, se ha generalizado el uso de dispositivos electrónicos tales como teléfonos inteligentes, tabletas electrónicas, ordenadores ponibles y similares. Estos dispositivos a menudo proporcionan funcionalidades de comunicación de voz y/o datos sobre redes inalámbricas o cableadas. Asimismo, dichos dispositivos pueden proporcionar una variedad de funciones diseñadas para potenciar la comodidad del usuario, tal como procesamiento de sonido, procesamiento de imágenes o vídeos, navegación, reproducción de música o archivos multimedia, etc.
[0003] Entre dichas funciones, los dispositivos electrónicos convencionales a menudo están equipados con una función de reconocimiento del habla. Dichos dispositivos electrónicos pueden realizar una función en respuesta a recibir y reconocer un comando de voz de un usuario. Por ejemplo, un dispositivo electrónico equipado con una función de reconocimiento del habla puede activar una aplicación, reproducir un archivo de audio o hacer una foto en respuesta a un comando de voz de un usuario.
[0004] Ocasionalmente, los usuarios pueden perder o extraviar dispositivos electrónicos. En estos casos, algunos dispositivos electrónicos convencionales están configurados para emitir un sonido de alarma o un mensaje para ayudar a los usuarios a encontrar los dispositivos electrónicos. Por ejemplo, un dispositivo electrónico puede alertar a un usuario de su ubicación generando un sonido de alarma en respuesta a un comando de voz del usuario. El dispositivo electrónico también puede transmitir un mensaje a otro dispositivo electrónico del usuario para informar al usuario de la ubicación del dispositivo electrónico.
[0005] En algunas situaciones, sin embargo, los sonidos de alarma pueden generarse por error. Por ejemplo, si el dispositivo electrónico de un usuario recibe un comando de voz para encontrar un dispositivo electrónico de otra persona destinado a su propio dispositivo electrónico, el dispositivo electrónico del usuario puede generar un sonido de alarma en respuesta al comando de voz. Además, el uso de funciones de audio de dispositivos electrónicos en algunas ubicaciones como una biblioteca, un teatro, una sala de reuniones y similares puede estar restringido o limitado. En un entorno de este tipo, generar un sonido de alarma para ubicar un dispositivo electrónico en respuesta a una orden de voz del usuario o de otra persona puede ser indeseable.
[0006] El documento US2014/0282003 A1 de Gruber et al. se relaciona en general con los asistentes digitales y, más específicamente, con los asistentes digitales que gestionan de forman inteligente las notificaciones basándose en el contexto actual. Describe un procedimiento para que un asistente digital determine de forma inteligente y dinámica si debe proporcionar una salida de habla. El procedimiento incluye proporcionar una lista de elementos de notificación, la lista que incluye una pluralidad de elementos de notificación, en el que cada uno respectivo de la pluralidad de elementos de notificación está asociado con un valor de urgencia respectivo. El procedimiento incluye además detectar un elemento de información y determinar si el elemento de información es pertinente para un valor de urgencia de un primer elemento de notificación de la pluralidad de elementos de notificación. El procedimiento incluye además, al determinar que el elemento de información es pertinente para el valor de urgencia del primer elemento de notificación, ajustar el valor de urgencia del primer elemento de notificación. El procedimiento incluye además determinar si el valor de urgencia ajustado del primer elemento de notificación cumple un umbral predeterminado, y al determinar que el valor de urgencia ajustado cumple el umbral predeterminado, proporcionar una primera indicación de audio a un usuario.
[0007] El documento US2004/0193420 A1 de Kennewick et al. se refiere a la recuperación de información en línea y al procesamiento de comandos a través de una interfaz de habla en el entorno de un vehículo. Describe un procedimiento que responde a una pronunciación del habla en lenguaje natural generada por un usuario. El procedimiento comprende: recibir la pronunciación del habla en lenguaje natural generada por el usuario, la pronunciación del habla en lenguaje natural generada por el usuario que tiene al menos una consulta y un comando; convertir la expresión del habla en lenguaje natural generada por el usuario en una señal electrónica; recuperar dicha al menos una de dicha consulta y dicho comando de la señal electrónica; seleccionar un agente de dominio asociado con dicha al menos una de dicha consulta y dicho comando; reenviar dicha al menos una de dicha consulta y dicho comando a dicho agente de dominio, en el que dicho agente de dominio es un ejecutable autónomo que recibe, procesa y responde a dicha al menos una de dicha consulta y dicho comando; y transmitir un mensaje asociado con dicha al menos una de dicha consulta y dicho comando a un servicio ubicado remotamente.
BREVE EXPLICACIÓN DE LA INVENCIÓN
[0008] La presente divulgación se refiere a generar una notificación para alertar a un usuario del dispositivo electrónico basándose en datos de contexto del dispositivo electrónico y un comando para generar la notificación.
[0009] La invención se define en las reivindicaciones adjuntas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0010] Los ejemplos de modos de realización útiles para entender la invención se entenderán con referencia a la siguiente descripción detallada, cuando se lea junto con los dibujos adjuntos.
La FIG. 1 ilustra un dispositivo electrónico configurado para generar una notificación para alertar a un usuario del dispositivo electrónico basándose en datos de contexto del dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 2 ilustra un diagrama de bloques del dispositivo electrónico configurado para generar una notificación para el usuario basándose en datos de contexto del dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 3 ilustra un diagrama de bloques de la unidad de sensor configurada para detectar datos de contexto del dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 4 ilustra un diagrama de flujo de un procedimiento realizado por el procesador en el dispositivo electrónico para generar una notificación basándose en datos de contexto del dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 5 ilustra un diagrama de flujo de un procedimiento realizado por la unidad de procesamiento de notificaciones en el procesador para determinar si se debe generar la notificación basándose en los datos de contexto, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 6 ilustra un sonido de entrada pronunciado por el usuario en una dirección hacia el dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 7 ilustra un sonido de entrada pronunciado por el usuario en una dirección distinta a la dirección hacia el dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 8 ilustra el reconocimiento de una frase hablada como un comando para generar la notificación basándose en las veces que se ha recibido una primera frase hablada y una segunda frase hablada, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 9 ilustra el dispositivo electrónico configurado para transmitir una notificación que incluye información de ubicación del dispositivo electrónico a un dispositivo externo del usuario, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 10 ilustra un diagrama de flujo de un procedimiento realizado por el procesador para bloquear o desbloquear el dispositivo electrónico, de acuerdo con un modo de realización de la presente divulgación.
La FIG. 11 es un diagrama de bloques de un dispositivo electrónico ejemplar en el que se pueden implementar los procedimientos y el aparato para generar una notificación basada en los datos de contexto y el comando para generar la notificación, de acuerdo con un modo de realización de la presente divulgación.
DESCRIPCIÓN DETALLADA
[0011] Ahora se hará referencia en detalle a diversos modos de realización, ejemplos de los cuales se ilustran en los dibujos adjuntos. En la siguiente descripción detallada, se exponen numerosos detalles específicos útiles para comprender la invención, tal como se define en las reivindicaciones adjuntas. En otros casos, los procedimientos, sistemas y componentes bien conocidos no se han descrito en detalle para no complicar innecesariamente aspectos de los diversos modos de realización.
[0012] La FIG. 1 ilustra un dispositivo electrónico 120 configurado para generar una notificación para alertar a un usuario 110 del dispositivo electrónico 120 basándose en datos de contexto del dispositivo electrónico 120, de acuerdo con un modo de realización de la presente divulgación. Como se muestra, el usuario 110 y el dispositivo electrónico 120 pueden estar ubicados en una habitación 100. El dispositivo electrónico puede colocarse sobre un escritorio 102 y cubrirse con una pluralidad de libros 104, de modo que el usuario 110 puede no ser capaz de encontrar el dispositivo electrónico 120. Como se ilustra en el presente documento, el dispositivo electrónico 120 puede ser cualquier dispositivo adecuado adaptado para recibir y procesar sonidos, tal como un teléfono inteligente, una cámara digital, un ordenador ponible (por ejemplo, gafas inteligentes, un reloj inteligente, etc.), un ordenador personal, un ordenador portátil, tableta electrónica, dispositivo de juego, etc.
[0013] Para ubicar el dispositivo electrónico 120, el usuario 110 puede pronunciar una frase indicativa de un comando para generar la notificación que alerta al usuario 110 del dispositivo electrónico 120. El dispositivo electrónico 120 puede recibir la frase hablada por el usuario 110 a través de un sensor de sonido 130 en el dispositivo electrónico 120. La frase hablada puede ser una o más palabras clave predeterminadas y/o una o más frases de lenguaje natural, como se describirá con más detalle a continuación con referencia a la FIG. 8. Al recibir la frase hablada, el dispositivo electrónico 120 puede reconocer la frase hablada como el comando para generar la notificación.
[0014] Al reconocer la frase hablada como el comando para generar la notificación, el dispositivo electrónico 120 puede detectar datos de contexto del dispositivo electrónico 120. Como se usa en el presente documento, el término "datos de contexto" de un dispositivo electrónico puede ser cualquier dato o información que describa o caracterice una condición ambiental del dispositivo electrónico, como un nivel de luz ambiente, un nivel de sonido ambiente, una hora actual, una ubicación actual, etc. del dispositivo electrónico, y datos de utilización indicativos de si el usuario 110 está utilizando el dispositivo electrónico 120, tales como datos indicativos de un movimiento del dispositivo electrónico, una imagen del usuario 110, una entrada de usuario (por ejemplo, una tecla de entrada, una entrada táctil, una entrada de voz, etc.) detectada por el dispositivo electrónico, un evento indicativo de una comunicación entrante no reconocida y/o un sonido de entrada (por ejemplo, un comando de habla) pronunciado en una dirección distinta a la dirección hacia el dispositivo electrónico.
[0015] Basándose en los datos de contexto y el comando para generar la notificación, el dispositivo electrónico 120 puede generar la notificación. En un modo de realización, el dispositivo electrónico 120 puede determinar si la notificación se debe generar basándose en los datos de contexto y el comando para generar la notificación. Al determinar que se debe generar la notificación, el dispositivo electrónico 120 puede generar y emitir la notificación adaptada para alertar al usuario 110 del dispositivo electrónico 120. La notificación se puede emitir utilizando cualquier unidad de salida adecuada, como un altavoz, una unidad de vibración, una unidad de salida de luz (por ejemplo, una pantalla de visualización, un flash LED, etc.), una unidad de comunicación y similares que pueden proporcionar una salida indicativa de una ubicación o presencia del dispositivo electrónico 120 y permiten al usuario 110 encontrar o ubicar el dispositivo electrónico 120.
[0016] Por otro lado, el dispositivo electrónico 120 puede determinar que la notificación no se debe generar basándose en los datos de contexto del dispositivo electrónico 120. Por ejemplo, si los datos de contexto indican que el dispositivo electrónico 120 está siendo utilizado por el usuario 110 o está ubicado en una biblioteca, el dispositivo electrónico 120 puede determinar que la notificación no se debe generar. En este caso, incluso cuando el dispositivo electrónico 120 ha reconocido la frase hablada como el comando para generar la notificación, es posible que la notificación no se genere. De esta manera, la generación de la notificación puede controlarse basándose en los datos de contexto del dispositivo electrónico 120 para impedir que se genere y se emita una notificación no deseada o distraída.
[0017] La FIG. 2 ilustra un diagrama de bloques del dispositivo electrónico 120 configurado para generar una notificación para el usuario 110 basándose en datos de contexto del dispositivo electrónico 120, de acuerdo con un modo de realización de la presente divulgación. El dispositivo electrónico 120 puede incluir un sensor de sonido 130, una unidad de sensor 210, una unidad de salida 220, una unidad de comunicación 230, una unidad de almacenamiento 240 y un procesador 250. El procesador 250 puede incluir una unidad de reconocimiento del habla 252, una unidad de asistente de voz 254, y una unidad de procesamiento de notificaciones 256. El procesador 250 puede ser cualquier procesador adecuado para gestionar y operar el dispositivo electrónico 120, tal como un procesador de aplicaciones (AP), unidad central de procesamiento (CPU), procesador de señales digitales (DSP), etc. El sensor de sonido 130 puede ser un componente separado de la unidad de sensor 210 o puede estar incluido en la unidad de sensor 210, y puede ser cualquier dispositivo adecuado capaz de recibir sonido y convertir el sonido en señales electrónicas indicativas del sonido. Como se usa en el presente documento, el término "unidad" puede referirse a uno o más componentes de hardware, secciones, partes o circuitos capaces de realizar, o adaptados para realizar, una o más funciones y además puede realizar dichas funciones junto con o ejecutando procesos, instrucciones., procedimientos, subrutinas o similares (por ejemplo, código de programa, microcódigo, etc.). A su vez, una "unidad" puede segmentarse en unidades más pequeñas (por ejemplo, subunidades) o dos o más unidades pueden combinarse en una sola "unidad".
[0018] En el dispositivo electrónico 120, el sensor de sonido 130 puede configurarse para recibir una frase hablada por el usuario 110. Al recibir la frase hablada, el sensor de sonido 130 puede proporcionar la frase hablada a la unidad de reconocimiento del habla 252 del procesador 250. La unidad de reconocimiento del habla 252 en el procesador 250 puede configurarse para reconocer la frase hablada como un comando para realizar una función, tal como un comando para generar la notificación utilizando cualquier esquema de reconocimiento de habla adecuado, como el modelo de Markov oculto, las redes neuronales profundas o similares. Una vez que la frase hablada es reconocida como el comando para generar la notificación, la unidad de reconocimiento del habla 252 puede proporcionar el comando para generar la notificación a la unidad de procesamiento de notificaciones 256 en el procesador 250. En este caso, la unidad de procesamiento de notificaciones 256 puede estar en un estado desactivado y puede activarse mediante la unidad de reconocimiento del habla 252 al reconocer el comando para generar la notificación. De forma alternativa, la unidad de procesamiento de notificaciones 256 ya puede estar activada para recibir el comando para generar la notificación desde la unidad de reconocimiento del habla 252.
[0019] De acuerdo con algunos modos de realización, la frase hablada puede incluir al menos una primera frase hablada y una segunda frase hablada, cada una de las cuales puede ser una palabra clave predeterminada o una frase. Por ejemplo, la unidad de reconocimiento del habla 252 puede reconocer la primera frase (por ejemplo, "Hola Snapdragon") y activar la unidad de asistente de voz 254 en el procesador 250. La unidad de asistente de voz 254 puede recibir entonces la segunda frase hablada (por ejemplo, "¿Dónde estás?") a través del sensor de sonido 130 y reconocer la segunda frase hablada como un comando para generar una notificación. Al reconocer la segunda frase hablada, la unidad de asistente de voz 254 puede activar la unidad de procesamiento de notificaciones 256 y proporcionar el comando reconocido para generar la notificación a la unidad de procesamiento de notificaciones 256.
[0020] En el dispositivo electrónico 120, la unidad de sensor 210 puede incluir cualquier número y tipo adecuado de sensores o dispositivos capaces de detectar datos de contexto de los dispositivos electrónicos. Por ejemplo, la unidad de sensor 210 puede incluir un sensor de sonido (por ejemplo, el sensor de sonido 130), un sensor de imagen, un sensor de movimiento, una unidad de reloj, un sensor de ubicación, una unidad de entrada y similares, como se describirá más detalladamente con referencia a la FIG. 3. La unidad de sensor 210 puede detectar datos de contexto tales como una entrada de usuario, una imagen del usuario 110, una condición ambiental (por ejemplo, información de ubicación, información del tiempo, un valor de luz ambiente), un movimiento del dispositivo electrónico 120, un evento indicativo de una comunicación entrante no reconocida, y/o un sonido de entrada (por ejemplo, un comando de habla) pronunciado en una dirección distinta a la dirección hacia el dispositivo electrónico 120, y proporcionar los datos de contexto a la unidad de procesamiento de notificaciones 256. En un modo de realización, la unidad de sensor 210 puede configurarse para supervisar datos de contexto de forma continua, periódica o intermitente. De forma adicional o alternativa, la unidad de sensor 210 puede configurarse para detectar datos de contexto al recibir y/o reconocer una frase hablada indicativa de un comando para generar la notificación.
[0021] Al recibir el comando para generar la notificación, la unidad de procesamiento de notificaciones 256 puede configurarse para determinar si la notificación se debe generar basándose en los datos de contexto recibidos desde la unidad de sensor 210 y/o el sensor de sonido 130. Por ejemplo, si los datos de contexto indican que es probable que el dispositivo electrónico 120 sea inaccesible para el usuario 110 (por ejemplo, perdido o extraviado), la unidad de procesamiento de notificaciones 256 del dispositivo electrónico 120 puede determinar que se debe generar la notificación. Por otro lado, si los datos de contexto indican que el dispositivo electrónico 120 está ubicado en un lugar como una biblioteca, una sala de cine, etc., donde el uso del dispositivo electrónico 120 puede estar restringido, la unidad de procesamiento de notificaciones 256 puede determinar que la notificación no se debe generar.
[0022] La unidad de procesamiento de notificaciones 256 puede configurarse para dar instrucciones a la unidad de salida 220 que genere la notificación basándose en los datos de contexto y el comando reconocido para generar la notificación. De acuerdo con un modo de realización, en respuesta a la determinación de que se debe generar la notificación basándose en los datos de contexto, la unidad de procesamiento de notificaciones 256 puede generar una o más señales configuradas para controlar la generación de la notificación mediante la unidad de salida 220. Por ejemplo, la unidad de procesamiento de notificaciones 256 puede proporcionar una o más señales para activar y/o dar instrucciones a la unidad de salida 220 que genere la notificación al determinar que se debe generar la notificación. Por otro lado, la unidad de procesamiento de notificaciones 256 puede determinar que la notificación no se debe generar basándose en los datos de contexto. En este caso, la unidad de procesamiento de notificaciones 256 puede no proporcionar ninguna señal para dar instrucciones a la unidad de salida 220 para generar la notificación o puede proporcionar una o más señales para desactivar y/o dar instrucciones a la unidad de salida 220 que impidan la generación de la notificación. De esta manera, es posible que la notificación no se emita basándose en los datos de contexto incluso cuando la frase hablada recibida del usuario 110 se reconozca como un comando para generar la notificación.
[0023] La unidad de salida 220 puede configurarse para generar la notificación basándose en los datos de contexto y el comando para generar la notificación. Como se describe en el presente documento, la unidad de salida 220 puede ser cualquier componente adecuado capaz de emitir notificaciones en respuesta a una o más señales de control de la unidad de procesamiento de notificaciones 256. En un modo de realización, la unidad de salida 220 puede incluir uno cualquiera de un altavoz 222, una unidad de vibración 224, una pantalla de visualización 226, una unidad de LED 228, etc., o cualquier combinación de los mismos. Por ejemplo, el altavoz 222 del dispositivo electrónico 120 puede emitir un sonido audible (por ejemplo, un sonido de alarma, un tono de llamada o similar) para ayudar al usuario 110 a encontrar el dispositivo electrónico 120. De forma adicional o alternativa, la unidad 224 de vibración puede vibrar, o la pantalla de visualización 226 o la unidad de LED 228 pueden emitir luz visible. En un modo de realización adicional o alternativa, la unidad de procesamiento de notificaciones 256 puede generar una notificación (por ejemplo, un mensaje que indica una ubicación del dispositivo electrónico, que puede obtenerse desde un sensor de ubicación en la unidad de sensor 210) y transmitir la notificación a un dispositivo externo asociado con el usuario 110 a través de la unidad de comunicación 230.
[0024] La unidad de almacenamiento 240 en el dispositivo electrónico 120 puede almacenar una base de datos de comandos (no se muestra) de una o más frases de voz predeterminadas para que el dispositivo electrónico 120 genere la notificación. Se puede acceder a la base de datos de comandos mediante la unidad de reconocimiento del habla 252 y/o la unidad de asistente de voz 254 en el procesador 250 para que reconozca una frase hablada recibida como la orden para generar la notificación. En algunos modos de realización, la unidad de almacenamiento 240 puede almacenar una base de datos de contexto (no se muestra), a la que puede acceder la unidad de procesamiento de notificaciones 256 en el procesador 250 para su uso en la determinación de si se debe generar la notificación basándose en los datos de contexto. La base de datos de contexto puede configurarse para almacenar cualquier tipo adecuado de datos o información que pueda usarse para determinar si se debe generar la notificación, tal como una ubicación predeterminada donde no se debe generar la notificación, un período de tiempo predeterminado durante el cual no se debe generar notificación, y similares. En un modo de realización, la base de datos de contexto puede actualizarse basándose en los datos de contexto recibidos de forma continua, periódica o intermitente por la unidad de sensor 210. La unidad de almacenamiento 240 puede implementarse utilizando cualquier dispositivo de almacenamiento o memoria adecuado, tal como una RAM (memoria de acceso aleatorio), una ROM (memoria de solo lectura), una EEPROM (memoria programable de solo lectura y borrable eléctricamente), una memoria flash o una SSD (unidad de estado sólido).
[0025] La FIG. 3 ilustra un diagrama de bloques de la unidad de sensor 210 configurada para detectar datos de contexto del dispositivo electrónico 120, de acuerdo con un modo de realización de la presente divulgación. La unidad de sensor 210 puede incluir una pluralidad de sensores tales como un sensor de sonido 130, un sensor de imagen 310, un sensor de movimiento 320 (por ejemplo, un acelerómetro, un giroscopio, etc.), una unidad de reloj 330, un sensor de ubicación 340, y una unidad de entrada 350 (por ejemplo, una pantalla táctil, una tecla o botón, etc.). Los sensores 130, 310, 320, 330, 340 y 350 pueden detectar una o más entradas como datos de contexto, que pueden proporcionarse a la unidad de procesamiento de notificaciones 256 en el procesador 250.
[0026] El sensor de sonido 130 puede configurarse para recibir un sonido de entrada y convertir el sonido de entrada en datos de sonido, que pueden enviarse como datos de contexto a la unidad de procesamiento de notificaciones 256. El sensor de sonido 130 puede incluir uno o más micrófonos o cualquier otro tipo de sensores de sonido que puedan usarse para recibir, captar, detectar y/o percibir un sonido de entrada, y puede emplear cualquier software y/o hardware adecuado para realizar dichas funciones. En un modo de realización, el sensor de sonido 130 puede recibir un sonido de entrada que incluye una frase hablada por el usuario 110. El sonido de entrada también puede incluir un sonido ambiental del dispositivo electrónico 120 o del usuario 110 tal como sonido de fondo, ruido, etc. A medida que se recibe el sonido de entrada, el sensor de sonido 130 puede generar datos de sonido, que pueden proporcionarse a la unidad de procesamiento de notificaciones 256 como datos de contexto.
[0027] De acuerdo con un modo de realización, el sensor de sonido 130 también puede configurarse para recibir una frase hablada como un comando que genere una notificación del usuario 110 y proporcionar la frase hablada a la unidad de reconocimiento del habla 252. En otro modo de realización, la frase hablada puede incluir una primera frase hablada y una segunda frase hablada. En este caso, el sensor de sonido 130 puede proporcionar la primera frase hablada a la unidad de reconocimiento del habla 252, que puede activar la unidad de asistente de voz 254 al reconocer la primera frase hablada como un comando para activar la unidad de asistente de voz 254. La unidad de asistente de voz 254 puede recibir la segunda frase hablada por el sensor de sonido 130 y reconocer la frase como un comando para generar la notificación.
[0028] En la unidad de sensor 210, el sensor de imagen 310 puede configurarse para capturar una o más imágenes tales como una cara, ojos, labios o la mano de un usuario, etc. Las imágenes también pueden incluir una imagen de fondo del usuario o del dispositivo electrónico 120. De acuerdo con un modo de realización, el sensor de imagen 310 puede capturar una imagen de una cara, un ojo (por ejemplo, un iris) o cualquier otra imagen física que se pueda utilizar para identificar a un usuario. De acuerdo con otro modo de realización, el sensor de imagen 310 puede detectar un nivel de luz ambiente del dispositivo electrónico 120. El sensor de imagen 310 puede entonces proporcionar las imágenes y/o el nivel de luz ambiente como datos de contexto a la unidad de procesamiento de notificaciones 256 en el procesador 250. Como se describe en el presente documento, el sensor de imagen 310 puede ser cualquier dispositivo de detección de imagen o luz adecuado (por ejemplo, una cámara, un módulo de cámara, un dispositivo de acoplamiento de carga, etc.) capaz de capturar o detectar una imagen o un nivel de luz.
[0029] El sensor de movimiento 320 puede configurarse para detectar un movimiento del dispositivo electrónico 120. En un modo de realización, el sensor de movimiento 320 puede ser un giroscopio y/o un acelerómetro configurado para supervisar las orientaciones y/o la aceleración del dispositivo electrónico 120 y generar datos indicativos de un cambio en la orientación o un movimiento del dispositivo electrónico 120. Por ejemplo, el giroscopio puede detectar orientaciones del dispositivo electrónico 120 para seguir un desplazamiento o movimiento del dispositivo electrónico 120. Por otro lado, el acelerómetro puede detectar la aceleración u orientaciones del dispositivo electrónico 120 para seguir un movimiento del dispositivo electrónico 120. Los datos generados que indican un cambio de orientación o un movimiento del dispositivo electrónico 120 pueden proporcionarse a la unidad de procesamiento de notificaciones 256 como datos de contexto.
[0030] La unidad de reloj 330 en la unidad de sensor 210 puede configurarse para detectar información de tiempo (por ejemplo, una hora actual) del dispositivo electrónico 120 y emitir la información de tiempo detectada como datos de contexto. La unidad de reloj 330 puede ser un dispositivo de tiempo o reloj incrustado en el dispositivo electrónico 120 y configurado para realizar el seguimiento de la hora actual. De forma adicional o alternativa, la unidad de reloj 330 puede implementarse en el procesador 250 como un reloj de CPU, recibir información de tiempo de una red externa a través de la unidad de comunicación 230, o usar la información de tiempo GPS recibida a través del sensor de ubicación 340 para realizar el seguimiento de la hora actual. La unidad de reloj 330 puede proporcionar la información de tiempo a la unidad de procesamiento de notificaciones 256 como datos de contexto.
[0031] El sensor de ubicación 340 puede configurarse para detectar información de ubicación (por ejemplo, una ubicación actual) del dispositivo electrónico 120 y emitir la información de ubicación detectada como datos de contexto. En un modo de realización, el sensor de ubicación 340 puede ser un receptor de GPS configurado para detectar información de ubicación de GPS e información de tiempo basándose en las señales de GPS recibidas de una pluralidad de satélites de GPS. De forma adicional o alternativa, el sensor de ubicación 340 puede ser un receptor inalámbrico configurado para recibir señales de una pluralidad de puntos de acceso Wi-Fi o estaciones base de una torre de telecomunicaciones y detectar la información de ubicación del dispositivo electrónico 120. El sensor de ubicación 340 puede proporcionar entonces la información de ubicación, que puede incluir un conjunto de latitud, longitud y altitud del dispositivo electrónico 120, a la unidad de procesamiento de notificaciones 256 como datos de contexto.
[0032] La unidad de entrada 350 puede configurarse para detectar una entrada de un usuario (por ejemplo, una entrada manual) del dispositivo electrónico 120 y enviar la entrada detectada como datos de contexto. En un modo de realización, la unidad de entrada 350 puede ser cualquier dispositivo de entrada adecuado para recibir una entrada de un usuario (por ejemplo, una entrada de usuario) y puede incluir una pantalla táctil, un botón, un teclado, un panel táctil o similar. La unidad de entrada 350 puede proporcionar la entrada detectada del usuario a la unidad de procesamiento de notificaciones 256 como datos de contexto.
[0033] La FIG. 4 ilustra un diagrama de flujo de un procedimiento realizado por el procesador 250 en el dispositivo electrónico 120 para generar una notificación basándose en datos de contexto del dispositivo electrónico 120, de acuerdo con un modo de realización de la presente divulgación. Inicialmente, el procesador 250 puede recibir una frase hablada por el usuario a través del sensor de sonido 130 en 410. En un modo de realización, la unidad de reconocimiento del habla 252 en el procesador 250 puede reconocer la frase hablada recibida como un comando para generar la notificación. De forma alternativa, la unidad de reconocimiento del habla 252 puede recibir una primera frase hablada como un comando para activar la unidad de asistente de voz 254 a través del sensor de sonido 130 y activar la unidad de asistente de voz 254 al reconocer la primera frase hablada como el comando de activación. La unidad de asistente de voz 254 puede recibir entonces la segunda frase hablada por el sensor de sonido 130 y reconocer la frase como el comando para generar la notificación. El comando para generar la notificación puede entonces proporcionarse a la unidad de procesamiento de notificaciones 256.
[0034] En respuesta al comando para generar la notificación, la unidad de procesamiento de notificaciones 256 puede recibir datos de contexto del dispositivo electrónico 120 de uno o más sensores en la unidad de sensor 210 en 430. En un modo de realización, la unidad de procesamiento de notificaciones 256 puede recibir datos de contexto basados al menos en una entrada de usuario, movimiento del dispositivo electrónico, información de tiempo, información de ubicación del dispositivo electrónico, valor de luz ambiente y un sonido de entrada. De forma adicional o alternativa, el procesador 250 también puede detectar un evento indicativo de una comunicación entrante no reconocida como datos de contexto. Por ejemplo, el procesador 250 puede recibir una comunicación entrante (por ejemplo, un mensaje, un correo electrónico, etc.) a través de la unidad de comunicación 230 y almacenar la comunicación entrante en la unidad de almacenamiento 240. Hasta que el usuario 110 revise la comunicación entrante, el procesador 250 puede determinar que la comunicación entrante no ha sido reconocida (por ejemplo, revisada) por el usuario 110 y así detectar la comunicación entrante no reconocida como datos de contexto, que pueden ser proporcionados a la unidad de procesamiento de notificaciones 256 en el procesador 250. De forma adicional o alternativa, la unidad de sensor 210 puede incluir una unidad de procesamiento separada que puede detectar un evento indicativo de una comunicación entrante no reconocida como datos de contexto.
[0035] En 440, la unidad de procesamiento de notificaciones 256 puede determinar si se debe generar la notificación basándose en los datos de contexto y el comando para generar la notificación. En un modo de realización, en respuesta al comando reconocido para generar la notificación, la unidad de procesamiento de notificaciones 256 puede determinar si la notificación se debe generar basándose en los datos de contexto. En este caso, la unidad de procesamiento de notificaciones 256 puede analizar uno o más datos de contexto de la unidad de sensor 210 y/o el procesador 250 o cualquier combinación de los mismos, como una entrada de usuario, una imagen del usuario 110, una condición ambiental (por ejemplo, información de ubicación, información de tiempo, un valor de luz ambiente), un movimiento del dispositivo electrónico 120, un evento indicativo de una comunicación entrante no reconocida y/o un sonido de entrada (por ejemplo, un comando de habla). En el caso de la imagen del usuario 110, la unidad de procesamiento de notificaciones 256 puede aplicar cualquier técnica de reconocimiento facial adecuada para identificar el rostro del usuario 110 en una o más imágenes que pueden recibirse desde el sensor de imagen 310 en la unidad de sensor 210. En el caso del sonido de entrada, la unidad de procesamiento de notificaciones 256 puede determinar si el sonido de entrada se pronuncia en una dirección distinta a la dirección hacia el dispositivo electrónico 120, que también puede usarse como datos de contexto como se describirá más detalladamente con referencia a las FIG. 6 y 7.
[0036] Los diversos tipos de datos de contexto pueden ser procesados por la unidad de procesamiento de notificaciones 256 para determinar si se debe generar la notificación como se describirá más detalladamente con referencia a la FIG. 5. En un modo de realización, se puede dar una prioridad más alta o la prioridad más alta a uno o más tipos de datos de contexto de modo que la notificación se pueda generar basándose en la detección de dichos tipos de datos de contexto a pesar de detectar otros tipos de datos de contexto. De forma adicional o alternativa, se puede determinar una puntuación de contexto basándose en los diversos tipos de datos de contexto, cada uno de los cuales puede ponderarse y combinarse. Una vez que la unidad de procesamiento de notificaciones 256 determina que se debe generar la notificación, puede proporcionar una señal de control a la unidad de salida 220 para generar la notificación en 450.
[0037] Al recibir la señal de control, la unidad de salida 220 puede emitir la notificación a través del altavoz 222, la unidad de vibración 224, la pantalla de visualización 226 y/o la unidad de LED 228. Por ejemplo, el altavoz 222 de la unidad de salida 220 puede emitir un sonido audible (por ejemplo, un sonido de alarma, un tono de llamada o similar). De forma adicional o alternativa, la unidad 224 de vibración en la unidad de salida 220 puede vibrar, o puede emitirse luz visible a través de la pantalla de visualización 226 o la unidad de LED 228.
[0038] De acuerdo con un modo de realización, el dispositivo electrónico 120 puede configurarse para estar en un modo silencioso en el que el dispositivo electrónico 120 puede configurarse para deshabilitar la salida de sonido a través del altavoz 222. En este caso, si el dispositivo electrónico 120 determina que se debe generar la notificación, puede desactivar el modo silencioso de modo que la notificación pueda salir a través del altavoz 222. Por ejemplo, si el dispositivo electrónico 120 está en un modo de vibración en el que la vibración puede salir a través de la unidad de vibración 224 y la salida de sonido a través del altavoz 222 está deshabilitada, puede desactivar el modo de vibración para permitir la salida de la notificación a través del altavoz. 222.
[0039] La FIG. 5 ilustra un diagrama de flujo de un procedimiento realizado por la unidad de procesamiento de notificaciones 256 en el procesador 250 para determinar si se debe generar la notificación basándose en los datos de contexto, de acuerdo con un modo de realización de la presente divulgación. Para determinar si se debe generar la notificación, la unidad de procesamiento de notificaciones 256 puede analizar y/o procesar datos de contexto de uno o más sensores o unidades en la unidad de sensor 210. En algunos modos de realización, la unidad de procesamiento de notificaciones 256 puede asignar una prioridad más alta o la prioridad más alta a ciertos tipos de datos de contexto.
[0040] Inicialmente, la unidad de procesamiento de notificaciones 256 puede determinar en 510 si se detecta una entrada de usuario en los datos de contexto recibidos desde la unidad de sensor 210. Por ejemplo, la entrada de usuario puede indicar que el dispositivo electrónico 120 está siendo utilizado por, o es accesible para, el usuario 110. En un modo de realización, si se determina que los datos de contexto incluyen la entrada de usuario (por ejemplo, entrada manual) en 510, la unidad de procesamiento de notificaciones 256 puede determinar que no se debe generar ninguna notificación en 560. De forma alternativa o adicional, la unidad de procesamiento de notificaciones 256 puede determinar si el dispositivo electrónico 120 está funcionando en respuesta a una entrada de usuario recibida como datos de contexto. Por ejemplo, el dispositivo electrónico 120 puede visualizar vídeo en un visualizador del dispositivo electrónico 120 o reproducir una canción en respuesta a una entrada o comando del usuario 110. En este caso, la unidad de procesamiento de notificaciones 256 puede determinar que no se debe generar ninguna notificación en 560.
[0041] Por otro lado, si se determina que no se ha recibido ninguna entrada de usuario en 510, la unidad de procesamiento de notificaciones 256 puede determinar si una ubicación actual o una hora actual del dispositivo electrónico 120 está dentro de una ubicación predeterminada o en una hora predeterminada, respectivamente, en 520. En algunos modos de realización, el dispositivo electrónico 120 puede recibir y almacenar uno o más periodos de tiempo y/o ubicaciones en los que no se debe generar la notificación del usuario 110. Al determinar que la ubicación actual o la hora actual del dispositivo electrónico está dentro de una ubicación predeterminada o una hora predeterminada, respectivamente, la unidad de procesamiento de notificaciones 256 puede determinar que la notificación no se debe generar en 560. De lo contrario, la unidad de procesamiento de notificaciones 256 puede proceder a determinar una puntuación de contexto para generar la notificación basándose en otros tipos de datos de contexto en 530.
[0042] En un modo de realización, la unidad de procesamiento de notificaciones 256 puede recibir la hora actual como datos de contexto de la unidad de sensor 210 y determinar si la hora actual está dentro de un período de tiempo predeterminado durante el cual no se debe generar la notificación, como cuando el usuario 110 pueda que esté inactivo (por ejemplo, dormido, por la noche, etc.) o que no pueda acceder al dispositivo electrónico 120 (por ejemplo, durante una reunión). El período de tiempo predeterminado durante el cual no se debe generar la notificación puede determinarse basándose en el historial de utilización del dispositivo electrónico 120 o en las tareas planificadas en una aplicación de calendario del dispositivo electrónico. Por ejemplo, la unidad de procesamiento de notificaciones 256 puede acceder a la aplicación de calendario y determinar que la hora actual está dentro de un período de tiempo durante el cual se planifica una reunión en 520 y así proceder a determinar que no se debe generar ninguna notificación en 560.
[0043] En otro modo de realización, la unidad de procesamiento de notificaciones 256 puede recibir la ubicación actual del dispositivo electrónico 120 como datos de contexto de la unidad de sensor 210 y determinar si la ubicación actual corresponde a una ubicación predeterminada para la cual no se debe generar la notificación. Por ejemplo, se puede determinar que la ubicación actual del dispositivo electrónico 120 se corresponde con una ubicación donde el uso del dispositivo electrónico 120 puede estar restringido, como por ejemplo, una biblioteca, un teatro o similar. En este caso, la unidad de procesamiento de notificaciones 256 puede proceder a determinar que la notificación no se debe generar en 560. De lo contrario, la unidad de procesamiento de notificaciones 256 puede proceder a determinar una puntuación de contexto para generar la notificación basándose en otros tipos de datos de contexto en 530.
[0044] En 530, la unidad de procesamiento de notificaciones 256 puede determinar una puntuación de contexto basada en uno o más tipos de datos de contexto. Como se usa en el presente documento, el término "puntuación de contexto" puede ser un valor de probabilidad que indica si el dispositivo electrónico 120 se encuentra en un contexto en el que se debe generar la notificación. En un modo de realización, la unidad de procesamiento de notificaciones 256 puede calcular una puntuación de contexto basándose en datos de contexto recibidos desde la unidad de sensor 210 y/o el procesador 250. Por ejemplo, los datos de contexto pueden incluir uno o más tipos de datos de contexto distintos de la entrada de usuario, la ubicación actual y la hora actual. De forma alternativa, los datos de contexto pueden incluir todos los tipos de datos de contexto recibidos desde la unidad de sensor 210 y/o el procesador 250.
[0045] En algunos modos de realización, según la invención, se determina una puntuación de contexto basándose en los tipos de datos de contexto que incluyen un valor de luz ambiente, una imagen de un usuario, un evento indicativo de una comunicación entrante no reconocida y un movimiento del dispositivo electrónico. Cada uno de los tipos de datos de contexto puede representarse con cualquier valor adecuado, que puede ponderarse mediante una ponderación predeterminada asociada y combinarse para calcular la puntuación de contexto usando cualquier esquema de ponderación adecuado. Por ejemplo, se puede determinar una puntuación de contexto basándose en los datos de contexto, que se pueden ponderar como se muestra en la Tabla 1 a continuación de acuerdo con un modo de realización de la presente invención.
<TABLA 1 >
Figure imgf000009_0001
[0046] En el caso de la luz ambiente en la Tabla 1 anterior, la luz ambiente puede representarse con un valor de contexto numérico en un intervalo entre 0 y 1 que puede ser proporcional a la intensidad de la luz, donde el valor 0 puede indicar un nivel de intensidad más bajo (por ejemplo, oscuridad total) y el valor 1 puede indicar una intensidad más alta. Por ejemplo, un valor de luz ambiente bajo puede indicar que el dispositivo electrónico 120 está cubierto por, o ubicado dentro de, un objeto (por ejemplo, una pluralidad de libros, papel, ropa, un bolsillo, etc.) y, por lo tanto, el usuario 110 puede no ser capaz de encontrar el dispositivo electrónico 120. En dicha situación, se puede generar una notificación para alertar al usuario 110 del dispositivo electrónico 120. En otros casos, un valor bajo de la luz ambiente puede ser el resultado de la hora del día, como una hora de la tarde, y puede no ser un indicativo claro de si se debe generar la notificación. Por tanto, en el modo de realización ilustrado en la Tabla 1, se puede asignar un peso relativamente bajo de 0,1 a la luz ambiente que tiene una intensidad de 0,2 de manera que la unidad de procesamiento de notificaciones 256 puede determinar un valor de contexto ponderado de 0,02 para el valor de luz ambiente.
[0047] Para el caso de la imagen del usuario 110, la imagen puede representarse con un valor de contexto numérico de 0 o 1 dependiendo de si se reconoce que el usuario 110 está en la imagen. Por ejemplo, cuando se identifica al usuario 110 en la imagen recibida del sensor de imagen 310, se puede asignar el valor 1. De lo contrario, se puede asignar el valor de 0. Si se detecta al usuario 110 en la imagen recibida a través del sensor de imagen 310, es muy probable que el usuario 110 pueda ver el dispositivo electrónico 120. Por consiguiente, se puede asignar un peso relativamente alto de 0,5 a la imagen del usuario 110 que tiene un valor de 1 en la Tabla 1 de modo que la unidad de procesamiento de notificaciones 256 puede determinar un valor de contexto ponderado de 0,5 para la imagen.
[0048] En el caso de la comunicación entrante no reconocida en el dispositivo electrónico 120, un evento indicativo de dichos datos de comunicación entrantes puede representarse con un valor de contexto numérico en un intervalo entre 0 y 1, que puede ser inversamente proporcional al tiempo transcurrido desde la recepción de la comunicación entrante no reconocida. Por ejemplo, al recibir un evento indicativo de la comunicación entrante no reconocida como datos de contexto, la unidad de procesamiento de notificaciones 256 puede determinar cuánto tiempo ha transcurrido desde que se ha recibido la comunicación entrante no reconocida a través de la unidad de comunicación 230. Cuando el evento indicativo de la comunicación entrante no reconocida se recibe inmediatamente después de la recepción a través de la unidad de comunicación 230, el valor de contexto del evento puede corresponder a 1. Por otro lado, cuando el tiempo transcurrido desde la recepción de una comunicación entrante no reconocida es mayor que un período de tiempo de umbral predeterminado (por ejemplo, 10 horas, un día, etc.), el valor de contexto para el evento indicativo de la comunicación entrante no reconocida puede corresponder a 0. Para un tiempo transcurrido entre estos casos, se puede asignar cualquier valor intermedio adecuado en proporción inversa al tiempo transcurrido. En el modo de realización ilustrado, se puede asignar un valor de 0,4 por un tiempo transcurrido de seis horas y se puede asignar una ponderación de 0,3 a dicho evento de manera que la unidad de procesamiento de notificaciones 256 pueda determinar un valor de contexto ponderado de 0,12 para el evento indicativo de la comunicación entrante no reconocida.
[0049] Para el caso del movimiento del dispositivo electrónico 120, los datos de movimiento indicativos de un movimiento del dispositivo electrónico 120 pueden representarse con un valor de contexto numérico en un intervalo entre 0 y 1, que puede ser inversamente proporcional al tiempo transcurrido desde el último movimiento, o el más reciente, del dispositivo electrónico 120. Por ejemplo, si los datos de movimiento actuales recibidos desde el sensor de movimiento 320 indican movimiento del dispositivo electrónico 120, el tiempo transcurrido puede ser cero y el valor de contexto para el movimiento del dispositivo electrónico 120 puede corresponder a 1. Por otro lado, si los datos de movimiento actuales indican que no ha habido movimiento del dispositivo electrónico, la unidad de procesamiento de notificaciones 256 puede determinar cuánto tiempo ha transcurrido desde que se detectó el último movimiento, o el más reciente, basándose en un tiempo en el que se detectó el último movimiento, o el más reciente. Por ejemplo, cuando se reciben datos de movimiento que indican un movimiento del dispositivo electrónico 120 desde el sensor de movimiento 320, el procesador 250 puede almacenar el momento en el que se detecta el movimiento del dispositivo electrónico 120 en la unidad de almacenamiento 240. En este caso, la unidad de procesamiento de notificaciones 256 puede acceder a la hora en que se detectó el último movimiento del dispositivo electrónico 120 desde la unidad de almacenamiento 240 y determinar cuánto tiempo ha transcurrido desde que se detectó el último movimiento. Si el tiempo transcurrido desde el último movimiento, o el más reciente, del dispositivo electrónico 120 es más largo que un período de tiempo umbral predeterminado (por ejemplo, 10 horas, un día, etc.), puede determinarse que el valor de contexto para el movimiento del dispositivo electrónico 120 es 0. Durante un tiempo transcurrido entre cero y el período de tiempo umbral predeterminado, se puede asignar cualquier valor intermedio adecuado en proporción inversa al tiempo transcurrido. Como se muestra en el modo de realización ilustrado, se puede asignar un valor de 0,8 para un tiempo transcurrido de dos horas y se puede asignar un peso de 0,1 a dichos datos de movimiento. En este caso, la unidad de procesamiento de notificaciones 256 puede determinar un valor de contexto ponderado de 0,08 para el movimiento del dispositivo electrónico 120.
[0050] Al generar un valor de contexto ponderado para cada uno de los tipos de datos de contexto en la Tabla 1, la unidad de procesamiento de notificaciones 256 puede calcular una puntuación de contexto de 0,72 sumando los valores de contexto ponderados. Por ejemplo, una puntuación de contexto S puede determinarse de acuerdo con la c = y N
siguiente ecuación £ji=1 <■ u donde w\ y son un peso y un valor de contexto, respectivamente. De forma alternativa, se puede determinar una puntuación de contexto S de acuerdo con cualquier función adecuada para determinar la puntuación de contexto tal como S = f(v 1 , ... vn), donde v¡es un valor de contexto. Aunque la unidad de procesamiento de notificaciones 256 determina la puntuación de contexto basándose en los tipos de datos de contexto que se muestran en la Tabla 1, en otras posibilidades de implementación que no se reivindican, también puede determinar la puntuación de contexto basándose en otros tipos de datos de contexto, como la entrada de usuario, la ubicación actual, la hora actual, una dirección desde la que se pronuncia el sonido de entrada (por ejemplo, una dirección de partida) y/o similares. En este caso, se puede asignar un valor de ponderación alto a cada uno de dichos tipos de datos de contexto de manera que la puntuación de contexto se pueda determinar sustancialmente basándose en uno o más de dichos tipos de datos de contexto.
[0051] Con referencia a la FIG. 5, al determinar la puntuación de contexto, la unidad de procesamiento de notificaciones 256 puede comparar la puntuación de contexto con una puntuación de umbral predeterminada en 540. Si la puntuación de contexto es menor o igual que la puntuación umbral predeterminada, la unidad de procesamiento de notificaciones 256 puede determinar que la notificación se debe generar en 550. Por otro lado, si se determina que la puntuación de contexto es mayor que el umbral predeterminado, la unidad de procesamiento de notificaciones 256 puede determinar que la notificación no se debe generar en 560. Con referencia a la Tabla 1 anterior, dada una puntuación umbral predeterminada de 0,5, la unidad de procesamiento de notificaciones 256 puede determinar que la notificación no se debe generar en 560 puesto que la puntuación de contexto calculada de 0,72 es mayor o igual que la puntuación umbral predeterminada de 0,5. Por otro lado, si una puntuación de contexto calculada es menor que la puntuación umbral, la unidad de procesamiento de notificaciones 256 puede determinar que se debe generar la notificación en 550.
[0052] En algunos modos de realización, la unidad de procesamiento de notificaciones 256 puede determinar si se debe generar la notificación adicionalmente basándose en si un sonido de entrada se pronuncia en una dirección hacia el dispositivo electrónico 120, que puede corresponder a una dirección hacia el sensor de sonido 130. Por ejemplo, el sonido de entrada puede ser una frase hablada por el usuario 110 (por ejemplo, una frase hablada indicativa de un comando para generar la notificación), que es recibida por el dispositivo electrónico 120 a través del sensor de sonido 130. Al recibir el sonido de entrada, la unidad de procesamiento de notificaciones 256 puede determinar si el sonido de entrada se pronuncia en una dirección distinta a la dirección hacia el dispositivo electrónico 120.
[0053] De acuerdo con un modo de realización, la unidad de procesamiento de notificaciones 256 puede determinar un ángulo de partida del sonido de entrada de usuario 110 como una "dirección de partida" (DOD) del sonido de entrada. En este caso, se puede determinar que el sonido de entrada se pronuncia en una dirección hacia el dispositivo electrónico 120 si la dirección de partida del sonido de entrada es en una dirección a lo largo de una línea (por ejemplo, una línea o dirección de referencia) entre una fuente de sonido (por ejemplo, un usuario) y el dispositivo electrónico 120. De lo contrario, se puede determinar que el sonido de entrada se pronuncia en una dirección distinta a la dirección hacia el dispositivo electrónico 120. Además, la unidad de procesamiento de notificaciones 256 también puede determinar que una dirección de partida del sonido de entrada es hacia el dispositivo electrónico 120 cuando se determina que la dirección está dentro de un ángulo o intervalo predeterminado desde la línea entre el dispositivo electrónico 120 y el usuario 110.
[0054] La FIG. 6 ilustra un sonido de entrada pronunciado por el usuario 110 en una dirección hacia el dispositivo electrónico 120 de acuerdo con un modo de realización de la presente divulgación. En el modo de realización ilustrado, el usuario 110 puede pronunciar una frase hablada como sonido de entrada en una dirección 610, que puede desviarse de una dirección de referencia 620 hacia el dispositivo electrónico 120. Al recibir la frase hablada como un sonido de entrada a través del sensor de sonido 130, la unidad de procesamiento de notificaciones 256 puede determinar una dirección de partida 610 de la frase hablada, la dirección de referencia 620 entre el usuario 110 y el dispositivo electrónico 120, y un ángulo 01 entre las direcciones 610 y 620. Dado un ángulo predeterminado p dentro del cual se puede considerar que un sonido de entrada se pronuncia hacia el dispositivo electrónico 120, la unidad de procesamiento de notificaciones 256 puede determinar que el ángulo 01 es menor que el ángulo predeterminado p y así determinar que la dirección de partida 610 de la frase hablada es hacia el dispositivo electrónico 120.
[0055] La FIG. 7 ilustra un sonido de entrada pronunciado por el usuario 110 en una dirección distinta a la dirección hacia el dispositivo electrónico 120 de acuerdo con un modo de realización de la presente divulgación. Como se muestra en el modo de realización ilustrado, el usuario 110 puede pronunciar una frase hablada como sonido de entrada en una dirección 710, que puede desviarse de una dirección de referencia 720 hacia el dispositivo electrónico 120. Al recibir la frase hablada como un sonido de entrada a través del sensor de sonido 130, la unidad de procesamiento de notificaciones 256 puede determinar una dirección de partida 710 de la frase hablada, la dirección de referencia 720 entre el usuario 110 y el dispositivo electrónico 120, y un ángulo 02 entre las direcciones 710 y 720. Dado el ángulo predeterminado p dentro del cual se puede considerar que un sonido de entrada se pronuncia hacia el dispositivo electrónico 120, la unidad de procesamiento de notificaciones 256 puede determinar que el ángulo 02 es mayor que el ángulo predeterminado p y así determinar que la dirección de partida 710 de la frase hablada está en una dirección distinta a la dirección hacia el dispositivo electrónico 120.
[0056] La FIG. 8 ilustra el reconocimiento de una frase hablada como un comando para generar la notificación basándose en las veces que se ha recibido una primera frase hablada 810 y una segunda frase hablada 820, de acuerdo con un modo de realización de la presente divulgación. En el modo de realización ilustrado, la frase hablada puede incluir la primera frase hablada 810 como un comando para activar la unidad de asistente de voz 254 y la segunda frase hablada 820 como un comando para generar la notificación. Inicialmente, el usuario 110 puede pronunciar la primera frase hablada (por ejemplo, "Hola Snapdragon") en el momento T1. El dispositivo electrónico 120 puede recibir la primera frase hablada a través del sensor de sonido 130 y la unidad de reconocimiento del habla 252 puede reconocer la primera frase hablada como un comando para activar la unidad de asistente de voz 254 en el procesador 250 usando cualquier función de reconocimiento de habla adecuada. Al reconocer la primera frase hablada, la unidad de reconocimiento del habla 252 puede activar la unidad de asistente de voz 254.
[0057] En el momento T2, el usuario 110 puede pronunciar la segunda frase del habla (por ejemplo, "¿Dónde estás?"). La unidad de asistente de voz 254, que ha sido activada, puede recibir la segunda frase hablada a través del sensor de sonido 130 y reconocer la segunda frase hablada como un comando para generar la notificación. Al reconocer la segunda frase hablada como el comando para generar la notificación, la unidad de asistente de voz 254 puede determinar si la primera frase hablada 810 y la segunda frase hablada 820 se reciben dentro de un período de tiempo predeterminado (por ejemplo, 5 segundos) basándose en los tiempos de recepción de la primera y segunda frases habladas 810 y 820. Una vez que se determina que la primera frase hablada 810 y la segunda frase 820 han sido recibidas dentro del período de tiempo predeterminado, la unidad de asistente de voz 254 puede activar la unidad de procesamiento de notificaciones 256 y proporcionar el comando reconocido a la unidad de procesamiento de notificaciones 256, que puede determinar si se debe generar la notificación. En un modo de realización, la unidad de asistente de voz 254 puede desactivarse una vez que proporciona el comando reconocido a la unidad de procesamiento de notificaciones 256.
[0058] De acuerdo con algunos modos de realización, la unidad de reconocimiento del habla 252 o la unidad de asistente de voz 254 pueden reconocer tanto la primera como la segunda frases habladas 810 y 820. En un modo de realización, la primera y segunda frases habladas 810 y 820 pueden recibirse en cualquier orden o secuencia y la unidad de reconocimiento del habla 252 y/o la unidad de asistente de voz 254 pueden configurarse para reconocer la primera y segunda frases habladas 810 y 820 en este orden. Por ejemplo, si la unidad de reconocimiento del habla 252 no recibe o no reconoce la primera frase hablada 810 pero recibe y reconoce la segunda frase hablada 820, la unidad de reconocimiento del habla 252 puede recibir y reconocer la primera frase hablada 810 como un comando para generar la notificación.
[0059] La FIG. 9 ilustra el dispositivo electrónico 120 configurado para transmitir una notificación que incluye información de ubicación del dispositivo electrónico a un dispositivo externo 930 del usuario 110, de acuerdo con un modo de realización de la presente divulgación. Como se usa en el presente documento, el término "dispositivo externo" puede ser cualquier dispositivo electrónico que esté físicamente separado del dispositivo electrónico 120 y capaz de comunicarse de forma inalámbrica con el dispositivo electrónico 120. Como se muestra, el usuario 110 puede estar en una ubicación 910 (por ejemplo, una oficina) y el dispositivo electrónico 120 puede estar en una ubicación 920 (por ejemplo, en casa) de manera que el dispositivo electrónico 120 puede no ser capaz de recibir o reconocer una frase hablada voz por el usuario 110.
[0060] En el modo de realización ilustrado, el usuario 110 puede introducir un comando (por ejemplo, una frase hablada para generar una notificación) al dispositivo externo 930 (por ejemplo, un reloj inteligente, gafas inteligentes, etc.) para ubicar el dispositivo electrónico 120. En respuesta, el dispositivo externo 930 puede transmitir de forma inalámbrica una petición para generar la notificación, que puede incluir la frase hablada de entrada, al dispositivo electrónico 120. Al recibir la petición de notificación a través de la unidad de comunicación 230, el procesador 250 en el dispositivo electrónico 120 puede recibir información de ubicación del sensor de ubicación 340 y transmitir de forma inalámbrica la información de ubicación al dispositivo externo 930 a través de la unidad de comunicación 230. De forma alternativa o adicional, el procesador 250 puede recibir cualquier otro tipo de datos de contexto indicativos de una ubicación del dispositivo electrónico (por ejemplo, una imagen capturada por el sensor de imagen 310) a través de la unidad de sensor 210 o desde la unidad de almacenamiento 240, y transmitir dichos datos como información de ubicación del dispositivo electrónico 120 al dispositivo externo 930. De forma adicional o alternativa, el dispositivo electrónico 120 puede emitir la notificación a través de la unidad de salida 220. En respuesta a recibir la información de ubicación del dispositivo electrónico 120, el dispositivo externo 930 puede generar la información de ubicación para el usuario 110.
[0061] De forma adicional o alternativa, el dispositivo externo 930 puede recibir una frase hablada por el usuario 110 para ubicar el dispositivo electrónico 120 y reconocer la frase hablada como un comando para ubicar el dispositivo electrónico 120. En respuesta al comando reconocido, el dispositivo externo 930 puede transmitir una petición para generar una notificación al dispositivo electrónico 120. Al recibir la petición, el dispositivo electrónico 120 puede transmitir información de ubicación del dispositivo electrónico 120 al dispositivo externo 930. Además, el dispositivo electrónico 120 puede transmitir cualquier otro tipo de datos de contexto del dispositivo electrónico 120 al dispositivo externo 930. En este caso, el dispositivo externo 930 puede determinar si la notificación debe ser generada por el dispositivo electrónico 120 basándose en los datos de contexto recibidos desde el dispositivo electrónico 120. Al determinar que se debe generar la notificación, el dispositivo externo 930 puede transmitir de forma inalámbrica un comando para generar la notificación al dispositivo electrónico 120, que puede generar y emitir la notificación en respuesta. En algunos modos de realización, el dispositivo externo 930 puede configurarse para detectar datos de contexto del dispositivo externo 930 a través de uno o más sensores. Basándose en los datos de contexto detectados del dispositivo externo 930, el dispositivo externo 930 puede seleccionar una o más unidades de salida para emitir la información de ubicación del dispositivo electrónico 120 y emitir la información de ubicación a través de las unidades de salida seleccionadas para el usuario 110.
[0062] La FIG. 10 ilustra un diagrama de flujo de un procedimiento realizado por el procesador 250 para bloquear o desbloquear el dispositivo electrónico 120, de acuerdo con un modo de realización de la presente divulgación. En 1010, la unidad de procesamiento de notificaciones 256 puede determinar que se debe generar la notificación basándose en datos de contexto. Por ejemplo, la unidad de procesamiento de notificaciones 256 en el procesador 250 puede determinar que se debe generar la notificación basándose en uno o más tipos de datos de contexto, lo que puede indicar que el dispositivo electrónico 120 probablemente sea inaccesible para el usuario 110 (por ejemplo, perdido o extraviado). En respuesta a la determinación de que se debe generar la notificación, el procesador 250 puede bloquear el dispositivo electrónico 120 en 1020 para impedir el acceso no autorizado al dispositivo electrónico 120 por parte de un usuario que no sea el usuario 110. En 1030, el procesador 250 puede recibir una entrada de usuario adaptada para verificar al usuario 110, tal como una entrada de sonido, un patrón o imagen predeterminados, un número de identificación personal, una contraseña, una huella digital, etc., a través de la unidad de entrada 350, el sensor de sonido 130, un sensor de huellas dactilares y/o el sensor de imagen 310. En respuesta a recibir y verificar la entrada de usuario, el procesador 250 puede desbloquear el dispositivo electrónico 120 en 1040. En un modo de realización, cuando el dispositivo electrónico 120 se ha bloqueado en respuesta a la determinación de que se debe generar la notificación, el procesador 250 puede desbloquear el dispositivo electrónico basándose en un tipo de entrada de usuario con un alto nivel de verificación o autentificación. Por ejemplo, el procesador 250 puede no desbloquear el dispositivo electrónico 120 en respuesta a una entrada de código de acceso y puede requerir una huella dactilar o una imagen facial como entrada de usuario para desbloquear el dispositivo electrónico 120.
[0063] La FIG. 11 ilustra un diagrama de bloques de un dispositivo electrónico 1100 en el que los procedimientos y el aparato de la presente divulgación para generar una notificación basada en los datos de contexto y el comando para generar la notificación se pueden implementar de acuerdo con algunos modos de realización. El dispositivo electrónico 1100 puede ser un teléfono celular, un teléfono inteligente, un ordenador ponible, un reloj inteligente, gafas inteligentes, un ordenador personal, un terminal, un microteléfono, un asistente personal digital (PDA), un módem inalámbrico, un teléfono sin cables, una tableta y así sucesivamente. El sistema de comunicación inalámbrica puede ser un sistema CDMA, un sistema GSM, un sistema W-CDMA, un sistema LTE, un sistema LTE avanzada y así sucesivamente.
[0064] El dispositivo electrónico 1100 puede ser capaz de proporcionar comunicación bidireccional por medio de una ruta de recepción y una ruta de transmisión. En la ruta de recepción, las señales transmitidas por las estaciones base se pueden recibir por una antena 1112 y se pueden proporcionar a un receptor (RCVR) 1114. El receptor 1114 puede acondicionar y digitalizar la señal recibida, y proporcionar la señal digital acondicionada y digitalizada a una sección digital para su procesamiento posterior. En la ruta de transmisión, un transmisor (TMTR) 1116 puede recibir datos que se van a transmitir desde una sección digital 1120, procesar y acondicionar los datos, y generar una señal modulada, que se transmite por medio de la antena 1112 a las estaciones base. El receptor 1114 y el transmisor 1116 pueden formar parte de un transceptor que puede admitir CDMA, GSM, W-CDMA, LTE, LTE avanzada, etc.
[0065] La sección digital 1120 puede incluir diversas unidades de procesamiento, interfaz y memoria, tales como, por ejemplo, un procesador de módem 1122, un ordenador con un conjunto reducido de instrucciones/procesador de señales digitales (RISC/DSP) 1124, un controlador/procesador 1126, una memoria interna 1128, un codificador de audio/vídeo generalizado 1132, un descodificador de audio generalizado 1134, un procesador de gráficos/visualizador 1136, y una interfaz de bus externo (EBI) 1138. El procesador de módem 1122 puede realizar un procesamiento para la transmisión y recepción de datos, por ejemplo, codificación, modulación, desmodulación y descodificación. El RISC/DSP 1124 puede realizar un procesamiento general y especializado para el dispositivo electrónico 1100. El controlador/procesador 1126 puede realizar la operación de diversas unidades de procesamiento e interfaz dentro de la sección digital 1120. La memoria interna 1128 puede almacenar datos y/o instrucciones para diversas unidades dentro de la sección digital 1120.
[0066] El codificador de audio/vídeo generalizado 1132 puede realizar la codificación para señales de entrada desde una fuente de audio/vídeo 1142, un micrófono 1144, un sensor de imagen 1146, etc. El descodificador de audio generalizado 1134 puede realizar la descodificación de datos de audio codificados y puede proporcionar señales de salida a un altavoz/auriculares 1148. El procesador de gráficos/visualizador 1136 puede realizar un procesamiento de gráficos, vídeos, imágenes y textos, que se pueden presentar a una unidad de visualización 1150. La EBI 1138 puede facilitar la transferencia de datos entre la sección digital 1120 y una memoria principal 1152.
[0067] La sección digital 1120 se puede implementar con uno o más procesadores, DSP, microprocesadores, RISC, etc. La sección digital 1120 también se puede fabricar en uno o más circuitos integrados específicos de la aplicación (ASIC) y/o algún otro tipo de circuitos integrados (IC).
[0068] En general, cualquier dispositivo descrito en el presente documento puede representar diversos tipos de dispositivos, tales como un teléfono inalámbrico, un teléfono móvil, un ordenador portátil, un dispositivo multimedia inalámbrico, una tarjeta de ordenador personal (PC) de comunicación inalámbrica, un PDA, un módem externo o interno, un dispositivo que se comunica a través de un canal inalámbrico, etc. Un dispositivo puede tener diversos nombres, tales como terminal de acceso (AT), unidad de acceso, unidad de abonado, estación móvil, dispositivo móvil, unidad móvil, teléfono móvil, móvil, estación remota, terminal remoto, unidad remota, dispositivo de usuario, equipo de usuario, dispositivo manual, etc. Cualquier dispositivo descrito en el presente documento puede tener una memoria para almacenar instrucciones y datos, así como hardware, software, firmware o combinaciones de los mismos.
[0069] Las técnicas descritas en el presente documento pueden implementarse mediante diversos medios. Por ejemplo, estas técnicas pueden implementarse en hardware, firmware, software o una combinación de los mismos. Los expertos en la técnica apreciarán además que los diversos bloques lógicos, módulos, circuitos y etapas de los algoritmos ilustrativos descritos en relación con la divulgación en el presente documento se pueden implementar como hardware electrónico, software informático o combinaciones de ambos. Para ilustrar claramente esta intercambiabilidad de hardware y software, anteriormente se han descrito los diversos componentes, bloques, módulos, circuitos y etapas ilustrativos, en general, en términos de su funcionalidad. Que dicha funcionalidad se implemente como hardware o software depende de la aplicación particular y de las restricciones de diseño impuestas en el sistema general. Los expertos en la técnica pueden implementar la funcionalidad descrita de formas variadas para cada aplicación particular, pero no se debe interpretar que dichas decisiones de implementación suponen apartarse del alcance de la presente divulgación.
[0070] Para una implementación en hardware, las unidades de procesamiento usadas para realizar las técnicas se pueden implementar dentro de uno o más ASIC, DSP, dispositivos de procesamiento de señales digitales (DSPD), dispositivos de lógica programable (PLD), matrices de puertas programables por campo (FPGA), procesadores, controladores, microcontroladores, microprocesadores, dispositivos electrónicos, otras unidades electrónicas diseñadas para realizar las funciones descritas en el presente documento, un ordenador o una combinación de los mismos.
[0071] Por lo tanto, los diversos bloques lógicos, módulos y circuitos ilustrativos descritos en relación con la divulgación del presente documento pueden implementarse o realizarse con un procesador de propósito general, un DSP, un ASIC, una FPGA o con otro dispositivo de lógica programable, lógica de transistores o de puertas discretas, componentes de hardware discretos, o con cualquier combinación de los mismos diseñada para realizar las funciones descritas en el presente documento. Un procesador de propósito general puede ser un microprocesador pero, de forma alternativa, el procesador puede ser cualquier procesador, controlador, microcontrolador o máquina de estados. Un procesador también se puede implementar como una combinación de dispositivos informáticos, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo de DSP o cualquier otra configuración de este tipo.
[0072] Si se implementan en software, las funciones se pueden almacenar en, o transmitir por, un medio legible por ordenador como una o más instrucciones o código. Los medios legibles por ordenador incluyen tanto medios de almacenamiento informático como medios de comunicación, incluyendo cualquier medio que facilite la transferencia de un programa informático de un lugar a otro. Un medio de almacenamiento puede ser cualquier medio disponible al que se pueda acceder mediante un ordenador. A modo de ejemplo y no limitado a ello, dichos medios legibles por ordenador pueden comprender RAM, ROM, EEPROM, CD-ROM u otros dispositivos de almacenamiento en disco óptico, almacenamiento en disco magnético u otro almacenamiento magnético, o cualquier otro medio que se pueda usar para transportar o almacenar el código de programa deseado en forma de instrucciones o estructuras de datos y al que se pueda acceder mediante un ordenador. El término disco, como se usa en el presente documento, incluye disco compacto (CD), disco láser, disco óptico, disco versátil digital (DVD), disco flexible y disco Blu-ray, donde unos discos reproducen normalmente los datos magnéticamente, mientras que otros discos reproducen datos ópticamente con láseres. Las combinaciones de lo anterior también se deben incluir dentro del alcance de los medios legibles por ordenador. Por ejemplo, un medio de almacenamiento legible por ordenador puede ser un dispositivo de almacenamiento legible por ordenador no transitorio que incluye instrucciones ejecutables por un procesador. Por tanto, un medio de almacenamiento legible por ordenador puede no ser una señal.
[0073] La anterior descripción de la divulgación se proporciona para permitir que cualquier experto en la técnica realice o use la divulgación. Diversas modificaciones de la divulgación resultarán fácilmente evidentes para los expertos en la técnica, y los principios genéricos definidos en el presente documento se pueden aplicar a otras variaciones sin apartarse del alcance de la invención, como se define en las reivindicaciones adjuntas.
[0074] Aunque las implementaciones ejemplares pueden referirse a utilizar aspectos de la presente materia objeto divulgada en el contexto de uno o más sistemas informáticos autónomos, la materia objeto no está limitada, sino que en su lugar puede implementarse en relación con cualquier entorno informático, tal como una red o un entorno informático distribuido. Aún más, se pueden implementar aspectos de la materia objeto divulgada actualmente en, o a través de, una pluralidad de chips o dispositivos de procesamiento, y el almacenamiento se puede realizar de forma similar a través de una pluralidad de dispositivos. Dichos dispositivos pueden incluir PC, servidores de red y dispositivos manuales.
[0075] Aunque la materia objeto se ha descrito en un lenguaje específico con respecto a los rasgos característicos estructurales y/o acciones metodológicas, se ha de entender que la materia objeto definida en las reivindicaciones adjuntas no se limita necesariamente a los rasgos característicos específicos o acciones que se han descrito anteriormente. En su lugar, los rasgos característicos y acciones específicas descritas anteriormente se divulgan como formas de ejemplo de implementación de las reivindicaciones.

Claims (12)

REIVINDICACIONES
1. Un procedimiento para generar una notificación realizado por un dispositivo electrónico, el procedimiento que comprende:
recibir (410) una frase hablada;
reconocer (420), mediante un procesador, la frase hablada como un comando para generar la notificación; detectar (430), mediante al menos un sensor, múltiples tipos de datos de contexto del dispositivo electrónico al reconocer la frase hablada, en el que los datos de contexto incluyen i) una imagen de un usuario, ii) valor de luz ambiente, iii) movimiento del dispositivo, y iv) un evento indicativo de una comunicación entrante no reconocida;
determinar un valor de contexto ponderado para cada tipo de datos de contexto;
determinar una puntuación de contexto añadiendo los valores de contexto ponderados,
determinar (440), mediante el procesador, si se debe generar la notificación basándose en una comparación de la puntuación de contexto con un valor umbral; y
generar (450), mediante el procesador, la notificación basada en la comparación y el comando.
2. El procedimiento de la reivindicación 1, en el que la determinación de si se debe generar la notificación comprende desactivar un modo silencioso del dispositivo electrónico al determinar que se debe generar la notificación.
3. El procedimiento de la reivindicación 1, en el que recibir la frase hablada comprende recibir, mediante un sensor de sonido, una primera frase hablada y una segunda frase hablada, y en el que el comando se reconoce en respuesta a la determinación de que la primera frase hablada y la segunda frase hablada se reciben dentro de un período de tiempo predeterminado.
4. El procedimiento de la reivindicación 3, en el que reconocer la frase hablada como el comando para generar la notificación comprende reconocer la primera frase hablada como un comando para activar una unidad de asistente de voz en el dispositivo electrónico y la segunda frase hablada como el comando para generar la notificación.
5. El procedimiento de la reivindicación 1, en el que recibir la frase hablada comprende recibir, mediante una unidad de comunicación, la frase hablada desde un dispositivo externo, y en el que generar de forma selectiva la notificación comprende transmitir, mediante la unidad de comunicación, la información de ubicación del dispositivo electrónico al dispositivo externo.
6. El procedimiento de la reivindicación 1, que comprende además bloquear el dispositivo electrónico en respuesta a una determinación para generar la notificación.
7. El procedimiento de la reivindicación 6, que comprende además desbloquear el dispositivo electrónico en respuesta a la recepción de una segunda entrada de usuario.
8. El procedimiento de la reivindicación 1, en el que generar la notificación comprende generar, mediante una unidad de salida, al menos uno de entre un sonido audible, vibración o luz visible, en el que el al menos un sensor incluye además un sensor de sonido.
9. Un dispositivo electrónico para generar una notificación, que comprende:
un sensor de sonido configurado para recibir (410) una frase hablada;
una unidad de reconocimiento del habla configurada para reconocer (420) la frase hablada como un comando para generar la notificación;
una unidad de sensor configurada para detectar (430) diversos tipos de datos de contexto del dispositivo electrónico al reconocer la frase hablada, en el que los datos de contexto incluyen i) una imagen de un usuario, ii) valor de luz ambiente, iii) movimiento del dispositivo, y iv) un evento indicativo de una comunicación entrante no reconocida; y
un procesador configurado para:
determinar un valor de contexto ponderado para cada tipo de datos de contexto;
determinar una puntuación de contexto sumando los valores de contexto ponderados; y
determinar (440) si se debe generar la notificación basándose en una comparación de la puntuación de contexto con un valor umbral; y
una unidad de salida configurada para generar (450) la notificación basada en la comparación y el comando.
10. El dispositivo electrónico de la reivindicación 9, en el que la unidad de salida está configurada para generar al menos uno de entre un sonido audible, vibración o luz visible.
11. El dispositivo electrónico de la reivindicación 9, que comprende además una unidad de comunicación configurada para recibir la frase hablada de un dispositivo externo y transmitir información de ubicación del dispositivo electrónico al dispositivo externo.
12. Un medio de almacenamiento legible por ordenador no transitorio que comprende instrucciones ejecutables para hacer que al menos un procesador de un dispositivo electrónico realice el procedimiento de cualquiera las reivindicaciones 1 a 8.
ES16795469T 2015-12-01 2016-10-26 Generación de notificaciones basadas en datos de contexto en respuesta a una frase hablada por un usuario Active ES2842181T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/956,180 US9946862B2 (en) 2015-12-01 2015-12-01 Electronic device generating notification based on context data in response to speech phrase from user
PCT/US2016/058920 WO2017095560A1 (en) 2015-12-01 2016-10-26 Electronic device generating notification based on context data in response to speech phrase from user

Publications (1)

Publication Number Publication Date
ES2842181T3 true ES2842181T3 (es) 2021-07-13

Family

ID=57321405

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16795469T Active ES2842181T3 (es) 2015-12-01 2016-10-26 Generación de notificaciones basadas en datos de contexto en respuesta a una frase hablada por un usuario

Country Status (11)

Country Link
US (1) US9946862B2 (es)
EP (3) EP3384489B1 (es)
JP (1) JP6585300B2 (es)
KR (1) KR101921037B1 (es)
CN (1) CN108292503B (es)
BR (1) BR112018010876A2 (es)
ES (1) ES2842181T3 (es)
HK (1) HK1251075A1 (es)
SG (1) SG11201803050PA (es)
TW (1) TWI647590B (es)
WO (1) WO2017095560A1 (es)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9769564B2 (en) 2015-02-11 2017-09-19 Google Inc. Methods, systems, and media for ambient background noise modification based on mood and/or behavior information
US11048855B2 (en) 2015-02-11 2021-06-29 Google Llc Methods, systems, and media for modifying the presentation of contextually relevant documents in browser windows of a browsing application
US11392580B2 (en) * 2015-02-11 2022-07-19 Google Llc Methods, systems, and media for recommending computerized services based on an animate object in the user's environment
US10284537B2 (en) 2015-02-11 2019-05-07 Google Llc Methods, systems, and media for presenting information related to an event based on metadata
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
JP2016218852A (ja) * 2015-05-22 2016-12-22 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
KR20180037543A (ko) * 2016-10-04 2018-04-12 삼성전자주식회사 음성 인식 전자 장치
US11276395B1 (en) * 2017-03-10 2022-03-15 Amazon Technologies, Inc. Voice-based parameter assignment for voice-capturing devices
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179549B1 (en) * 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10599391B2 (en) * 2017-11-06 2020-03-24 Google Llc Parsing electronic conversations for presentation in an alternative interface
CN108022586B (zh) 2017-11-30 2019-10-18 百度在线网络技术(北京)有限公司 用于控制页面的方法和装置
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11094316B2 (en) * 2018-05-04 2021-08-17 Qualcomm Incorporated Audio analytics for natural language processing
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
JP2019204025A (ja) * 2018-05-24 2019-11-28 レノボ・シンガポール・プライベート・リミテッド 電子機器、制御方法、及びプログラム
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
JP7055722B2 (ja) * 2018-08-27 2022-04-18 京セラ株式会社 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム
JP2020052445A (ja) * 2018-09-21 2020-04-02 シャープ株式会社 発話装置、サーバ、制御システム、制御方法、およびプログラム
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11205433B2 (en) * 2019-08-21 2021-12-21 Qualcomm Incorporated Method and apparatus for activating speech recognition
CN110648645A (zh) * 2019-09-27 2020-01-03 北京小米移动软件有限公司 带屏电子设备控制方法、装置及控制系统
US11664044B2 (en) 2019-11-25 2023-05-30 Qualcomm Incorporated Sound event detection learning
JP7482640B2 (ja) 2020-02-05 2024-05-14 キヤノン株式会社 音声入力装置およびその制御方法ならびにプログラム
CN111354360A (zh) * 2020-03-17 2020-06-30 北京百度网讯科技有限公司 语音交互处理方法、装置和电子设备
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US20220028245A1 (en) * 2020-07-21 2022-01-27 Rai Strategic Holdings, Inc. Aerosol Generation Device Locator
US11410677B2 (en) 2020-11-24 2022-08-09 Qualcomm Incorporated Adaptive sound event classification
US11749287B2 (en) * 2021-04-09 2023-09-05 Qualcomm Incorporated Device finder using voice authentication

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3888727B2 (ja) * 1997-04-15 2007-03-07 三菱電機株式会社 音声区間検出方法、音声認識方法、音声区間検出装置及び音声認識装置
JP2002057749A (ja) * 2000-08-09 2002-02-22 Denso Corp 携帯形通信装置
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
JP4429691B2 (ja) * 2003-11-07 2010-03-10 クラリオン株式会社 車載用音響装置、車載用音響装置の制御方法、車載用音響装置の制御プログラム、及び記録媒体
US9042921B2 (en) * 2005-09-21 2015-05-26 Buckyball Mobile Inc. Association of context data with a voice-message component
JP2009124188A (ja) * 2006-01-30 2009-06-04 Nec Corp 携帯端末、携帯端末の紛失通知方法、および紛失通知プログラム
US8587402B2 (en) * 2008-03-07 2013-11-19 Palm, Inc. Context aware data processing in mobile computing device
JP2010098356A (ja) * 2008-10-14 2010-04-30 Panasonic Corp 携帯端末
US9076125B2 (en) * 2009-02-27 2015-07-07 Microsoft Technology Licensing, Llc Visualization of participant relationships and sentiment for electronic messaging
US8423508B2 (en) * 2009-12-04 2013-04-16 Qualcomm Incorporated Apparatus and method of creating and utilizing a context
US8854318B2 (en) * 2010-09-01 2014-10-07 Nokia Corporation Mode switching
JP2012070085A (ja) * 2010-09-21 2012-04-05 Ntt Docomo Inc 携帯端末及びプログラム
US9262612B2 (en) * 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8594737B2 (en) 2011-04-06 2013-11-26 Blackberry Limited System and method for locating a misplaced mobile device
US20130324071A1 (en) * 2012-06-04 2013-12-05 Yeung Hwae Huh Modifying alert modes for electronic devices
US9348607B2 (en) * 2012-06-07 2016-05-24 Apple Inc. Quiet hours for notifications
JP2014036360A (ja) * 2012-08-09 2014-02-24 Sharp Corp 電子機器、電子機器の制御方法、および制御プログラム
US9721587B2 (en) * 2013-01-24 2017-08-01 Microsoft Technology Licensing, Llc Visual feedback for speech recognition system
US9854084B2 (en) 2013-03-06 2017-12-26 Google Llc Contextual alarm and notification management
KR102057795B1 (ko) 2013-03-15 2019-12-19 애플 인크. 콘텍스트-민감성 방해 처리
WO2014165470A1 (en) 2013-04-03 2014-10-09 Qmotion Incorporated System and method for wireless voice activation of motorized window coverings
US10145579B2 (en) * 2013-05-01 2018-12-04 Honeywell International Inc. Devices and methods for interacting with a control system that is connected to a network
US9384751B2 (en) * 2013-05-06 2016-07-05 Honeywell International Inc. User authentication of voice controlled devices
US9892729B2 (en) * 2013-05-07 2018-02-13 Qualcomm Incorporated Method and apparatus for controlling voice activation
US9767672B2 (en) 2013-06-14 2017-09-19 Ebay Inc. Mobile device self-identification system
US9240182B2 (en) * 2013-09-17 2016-01-19 Qualcomm Incorporated Method and apparatus for adjusting detection threshold for activating voice assistant function
KR102188090B1 (ko) * 2013-12-11 2020-12-04 엘지전자 주식회사 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템
US8938394B1 (en) * 2014-01-09 2015-01-20 Google Inc. Audio triggers based on context
JP2015148648A (ja) * 2014-02-04 2015-08-20 シャープ株式会社 対話システム、発話制御装置、対話装置、発話制御方法、発話制御装置の制御プログラム、および、対話装置の制御プログラム
US20150249718A1 (en) * 2014-02-28 2015-09-03 Chris Huybregts Performing actions associated with individual presence
US9430186B2 (en) * 2014-03-17 2016-08-30 Google Inc Visual indication of a recognized voice-initiated action
US9966079B2 (en) * 2014-03-24 2018-05-08 Lenovo (Singapore) Pte. Ltd. Directing voice input based on eye tracking
US10770075B2 (en) 2014-04-21 2020-09-08 Qualcomm Incorporated Method and apparatus for activating application by speech input
US9715875B2 (en) * 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9696801B2 (en) * 2014-06-26 2017-07-04 Thomas Alan Donaldson Eye-controlled user interface to control an electronic device
US10515081B2 (en) * 2014-12-11 2019-12-24 Facebook, Inc. User-aware notification delivery
US10274911B2 (en) * 2015-06-25 2019-04-30 Intel Corporation Conversational interface for matching text of spoken input based on context model

Also Published As

Publication number Publication date
EP3384489B1 (en) 2020-09-23
BR112018010876A2 (pt) 2018-11-21
TWI647590B (zh) 2019-01-11
EP4350691A1 (en) 2024-04-10
HK1251075A1 (zh) 2019-01-18
TW201729039A (zh) 2017-08-16
WO2017095560A1 (en) 2017-06-08
CN108292503A (zh) 2018-07-17
EP3384489A1 (en) 2018-10-10
JP2018537714A (ja) 2018-12-20
KR20180066251A (ko) 2018-06-18
CN108292503B (zh) 2019-06-14
EP3757989A1 (en) 2020-12-30
US20170154176A1 (en) 2017-06-01
SG11201803050PA (en) 2018-06-28
JP6585300B2 (ja) 2019-10-02
KR101921037B1 (ko) 2018-11-21
US9946862B2 (en) 2018-04-17

Similar Documents

Publication Publication Date Title
ES2842181T3 (es) Generación de notificaciones basadas en datos de contexto en respuesta a una frase hablada por un usuario
ES2817841T3 (es) Procedimiento y aparato para ajustar umbral de detección para activar función de asistente de voz
US10609207B2 (en) Sending smart alerts on a device at opportune moments using sensors
ES2818085T3 (es) Procedimiento y aparato para activación de aplicación mediante entrada de voz
US10237396B2 (en) Launching applications from a lock screen of a mobile computing device via user-defined symbols
US8258972B2 (en) Electronic device and method to prevent falling of the electronic device
US9916431B2 (en) Context-based access verification
US20150249718A1 (en) Performing actions associated with individual presence
US20150011195A1 (en) Automatic volume control based on context and location
BR112015018905B1 (pt) Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US20140253708A1 (en) Lost device return
JP6250187B2 (ja) 携帯端末、携帯端末の制御方法、および制御プログラム
US9824558B2 (en) Automated motion disturbance detection and alerting
US20160004619A1 (en) Automated maintenance of an electronic device
RU2614930C2 (ru) Система и способ контроля исполнения приложений дополненной реальности, установленных на устройстве пользователя, в зависимости от состояния окружающей среды
JP6810252B2 (ja) 情報処理端末および自動応答方法
JP7093396B2 (ja) 情報処理端末および自動応答方法
JP7207467B2 (ja) 情報処理方法、情報処理装置、情報処理システム、プログラム
US9298268B2 (en) Electronic device and gesture activation method thereof