ES2952255T3 - Método de procesamiento de tareas de alerta, terminal y medio de almacenamiento legible por ordenador - Google Patents

Método de procesamiento de tareas de alerta, terminal y medio de almacenamiento legible por ordenador Download PDF

Info

Publication number
ES2952255T3
ES2952255T3 ES20762192T ES20762192T ES2952255T3 ES 2952255 T3 ES2952255 T3 ES 2952255T3 ES 20762192 T ES20762192 T ES 20762192T ES 20762192 T ES20762192 T ES 20762192T ES 2952255 T3 ES2952255 T3 ES 2952255T3
Authority
ES
Spain
Prior art keywords
alert
information
screenshot
time
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20762192T
Other languages
English (en)
Inventor
Peng Zhao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Application granted granted Critical
Publication of ES2952255T3 publication Critical patent/ES2952255T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72451User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to schedules, e.g. using calendar applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • H04M1/724631User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device by limiting the access to the user interface, e.g. locking a touch-screen or a keypad

Abstract

La presente divulgación proporciona un método de procesamiento de tareas de recordatorio, un terminal y un medio de almacenamiento legible por computadora. El método de procesamiento de tareas de recordatorio comprende: recibir una primera entrada de un primer operador; en respuesta a la primera entrada, ejecutar una operación de captura de pantalla, generar una imagen de captura de pantalla y obtener la primera información de características biológicas del primer operador; y ejecutar una tarea de recordatorio de objetivo basándose en la imagen de captura de pantalla y la primera información de característica biológica. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método de procesamiento de tareas de alerta, terminal y medio de almacenamiento legible por ordenador
Campo técnico
Las realizaciones de la presente descripción se relacionan con el campo de las tecnologías de la comunicación y, en particular, con un método de procesamiento de tareas de alerta y un terminal.
Antecedentes
En la actualidad, en un proceso de uso diario de un teléfono móvil, cuando un usuario ve una interfaz de una pantalla, el usuario en ocasiones recuerda que hay algo que no se ha hecho o que hay algo que se debe hacer en un momento en el futuro. En general, en este caso, el usuario crea un nuevo evento de alerta en una nota adhesiva, un calendario o un software de lista de terceros. De manera alternativa, el usuario habla con un asistente de voz (como Siri) en un teléfono móvil y luego un sistema genera automáticamente un evento y le recuerda al usuario que haga algo en un momento preestablecido.
Sin embargo, la mayor desventaja de crear un nuevo evento en una nota adhesiva o un calendario es que es problemático. El usuario debe abrir el software correspondiente e ingresar un texto para registrar lo que el usuario pensó en ese momento. Si el usuario olvida establecer una hora de alerta, es muy posible que este registro no pueda cumplir el propósito esperado. Además de ser problemático, el software de lista de terceros no puede recordarle al usuario en un momento preestablecido después de que se cierra la aplicación, y tampoco puede servir como alerta.
Aunque usar un asistente de voz para ayudar a recordarle a un usuario que haga algo es rápido, cuando es inconveniente hablar, por ejemplo, en una sala de reuniones o en una sala de cine, no es conveniente usar el asistente de voz. Además, cuando un evento es privado, tampoco conviene usar directamente el asistente de voz.
El documento CN108491713A proporciona un método de recordatorio de seguridad. El método incluye: identificar la primera información de verificación para una primera operación de verificación de un evento de verificación y adquirir la primera información biológica de un operador, donde no hay similitud entre la primera información de verificación y la primera información biológica; si la primera información de verificación coincide con la primera información de verificación preestablecida y la primera información biológica no coincide con la información biológica de verificación preestablecida, establecer un evento de recordatorio, donde el evento de recordatorio se usa para generar información de recordatorio para la próxima vez que la información biológica del evento de verificación se compara con la información biológica de verificación preestablecida.
El documento US20160260143A1 describe la revisión de una aplicación móvil. Se identifica una interacción realizada por un usuario de un dispositivo portátil. Se reciben uno o más datos de expresión facial. Se captura una captura de pantalla de una aplicación móvil en un dispositivo móvil. Se determina una opinión del usuario, correspondiente a la captura de pantalla, donde la opinión se basa en los datos de la expresión facial. Se determina una calificación de la aplicación móvil correspondiente al usuario, donde la calificación de la aplicación móvil se basa en una o más calificaciones de capturas de pantalla correspondientes al usuario.
Compendio
Las realizaciones de la presente invención, tal como se definen en las reivindicaciones adjuntas, proporcionan un método de procesamiento de tareas de alerta y un terminal para resolver el problema de poca privacidad en una solución de procesamiento de tareas de alerta en tecnologías relacionadas.
Para resolver el problema técnico anterior, la presente descripción se implementa de la siguiente manera:
Según un primer aspecto, una realización de la presente invención proporciona un método de procesamiento de tareas de alerta según la reivindicación 1.
Según un segundo aspecto, una realización de la presente invención proporciona además un terminal según la reivindicación 9.
En las realizaciones de la presente descripción, se recibe una primera entrada de un primer operador; se realiza una operación de captura de pantalla, se emite una captura de pantalla y se obtiene la primera información de características biométricas del primer operador en respuesta a la primera entrada; y se realiza una tarea de alerta de objetivo con base en la captura de pantalla y la información de la primera característica biométrica. Esto puede evitar la pérdida de privacidad causada por alertas de eventos cuando el propietario no usa un teléfono móvil, y la privacidad del propietario puede estar bien protegida. Debido a que la tarea de alerta objetivo se realiza con base en la primera información de características biométricas, se mejora la seguridad de la alerta de tarea.
Breve descripción de los dibujos
La FIG. 1 es un diagrama de flujo esquemático de un método de procesamiento de tareas de alerta según una realización de la presente descripción;
la FIG. 2 es un diagrama esquemático 1 de una forma de visualización de información de alerta según una realización de la presente descripción;
la FIG. 3 es un diagrama esquemático 2 de una forma de visualización de información de alerta según una realización de la presente descripción;
la FIG. 4 es un diagrama estructural esquemático 1 de un terminal según una realización de la presente descripción; y
la FIG. 5 es un diagrama estructural esquemático 2 de un terminal según una realización de la presente descripción.
Descripción detallada de realizaciones
A continuación se describen clara y completamente las soluciones técnicas en las realizaciones de la presente descripción con referencia a los dibujos adjuntos en las realizaciones de la presente descripción. Evidentemente, las realizaciones descritas son algunas en lugar de todas las realizaciones de la presente descripción.
En vista del problema de la escasa privacidad de una solución de procesamiento de tareas de alerta en tecnologías relacionadas, la presente descripción proporciona un método de procesamiento de tareas de alerta. Como se muestra en la FIG. 1, el método incluye:
Paso 101: recibir una primera entrada de un primer operador.
La primera entrada puede ser cualquier entrada que pueda desencadenar una operación de captura de pantalla, por ejemplo, una operación de tocar preestablecida (como hacer doble clic y hacer clic), una operación de deslizamiento preestablecida (como deslizarse hacia la izquierda de la pantalla y deslizar hacia la derecha de la pantalla), una operación de presión preestablecida (como una operación de presión durante un período de tiempo preestablecido), y presionar un botón preestablecido, o cualquier combinación de las múltiples operaciones anteriores.
Paso 102: Realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de características biométricas del primer operador en respuesta a la primera entrada.
La primera información de características biométricas no se limita a información de cara. Específicamente, la información de características biométricas puede incluir al menos uno de los siguientes: información de cara, información de huellas dactilares e información de iris.
La información de cara puede ser recopilada por una cámara frontal de un terminal, la información de huellas dactilares puede ser recopilada por un sensor de huellas dactilares del terminal y la información de iris puede ser recopilada por la cámara frontal del terminal. Sin embargo, esto no constituye una limitación.
Paso 103: Realizar una tarea de alerta objetivo basada en la captura de pantalla y la información de la primera característica biométrica.
Específicamente, la tarea de alerta de objetivo se puede realizar según la información de alerta obtenida de la captura de pantalla y la primera información de características biométricas. Cuando la información de característica biométrica del operador que usa actualmente el terminal no coincide con la primera información de característica biométrica, se retrasa la ejecución de la tarea de alerta objetivo.
Esto no solo facilita la edición de un evento de alerta, sino que también garantiza la privacidad de un evento registrado del operador, mejorando así la seguridad de la alerta de tareas.
Por lo tanto, en el método de procesamiento de tareas de alerta proporcionado en las realizaciones de la presente descripción, se recibe una primera entrada de un primer operador; se realiza una operación de captura de pantalla, se emite una captura de pantalla y se obtiene la primera información de característica biométrica del primer operador en respuesta a la primera entrada; y se realiza una tarea de alerta objetivo con base en la captura de pantalla y la primera información de característica biométrica. Esto puede evitar la pérdida de privacidad causada por alertas de eventos cuando el propietario no utiliza un teléfono móvil, y la privacidad del propietario puede estar bien protegida. Debido a que la tarea de alerta de objetivo se realiza con base en la primera información de característica biométrica, se mejora la seguridad de la alerta de tarea.
Además, durante la generación de la tarea de alerta, después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener información de característica biométrica del operador en respuesta a la primera entrada; y antes de realizar una tarea de alerta objetivo con base en la captura de pantalla y la información de característica biométrica, el método incluye además: determinar una hora de alerta; determinar información de alerta basada en la captura de pantalla; y generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta.
Es decir, la generación de la tarea de alerta objetivo está relacionada principalmente con la hora de alerta y la información de alerta. La hora de alerta puede obtenerse con base en la captura de pantalla, obtenerse con base en la información de entrada o determinarse con base en una hora de retraso de alerta predeterminado. La captura de pantalla se puede usar directamente como información de alerta, o se puede extraer información de la captura de pantalla como información de alerta. Sin embargo, esto no constituye una limitación. Esto puede garantizar que la edición de un evento de alerta se pueda completar convenientemente.
Las realizaciones de la presente descripción proporcionan dos ejemplos de la información de alerta. La determinación de la información de alerta basada en la captura de pantalla incluye al menos uno de los siguientes: determinación de la captura de pantalla como información de alerta; y extraer información objetivo de la captura de pantalla y determinar la información objetivo como la información de alerta.
Cuando la captura de pantalla se determina como información de alerta, como se muestra en la FIG. 2, cuando llega la hora de la alerta, se puede mostrar una captura de pantalla 2 como información de alerta para la alerta en una interfaz 1 actual.
En un caso en el que la información objetivo se extrae de la captura de pantalla y la información objetivo se determina como información de alerta, como se muestra en la FIG. 3, cuando llega el momento de la alerta, la información 4 objetivo extraída aparece en un terminal 3 como información de alerta para la alerta. La extracción de la información objetivo puede ser específicamente: obtener información de texto como información objetivo de la captura de pantalla usando una tecnología de reconocimiento de imágenes u obtener información de texto de un área seleccionada de la captura de pantalla como información objetivo.
Opcionalmente, en un caso en el que la información objetivo en la captura de pantalla es la información de alerta, cuando se ejecuta la tarea de alerta objetivo, se muestra además un enlace, donde el enlace se usa para desencadenar la visualización de la captura de pantalla.
Es decir, en las realizaciones de la presente descripción, el operador puede elegir una variedad de métodos de alerta. Por ejemplo, en un método, se muestra una captura de pantalla en la interfaz, y en otro método, se muestra la información objetivo extraída de la captura de pantalla, y en este método, se puede mostrar además un enlace, de modo que el operador haga clic en el enlace para ver la captura de pantalla correspondiente, para alertar al operador.
La cooperación con una aplicación de notas o una aplicación de calendario se puede realizar además para mostrar información de alerta registrada actualmente en la aplicación de notas o la aplicación de calendario. Por ejemplo, se agrega una nota a la aplicación de notas, donde esta nota incluye la hora de la alerta, la información de la alerta (la información objetivo mencionada anteriormente) y una captura de pantalla (si hay grafiti, la captura de pantalla es una captura de pantalla que incluye el grafiti). De manera alternativa, en la aplicación de calendario, se agrega un nuevo horario en la fecha correspondiente a la hora de alerta, y se muestra en el horario una hora específica y la información de alerta (la información objetivo mencionada anteriormente). Una ruta de la captura de pantalla puede mostrarse adicionalmente, de modo que el operador haga clic en la ruta para la redirección, facilitando así mejor la aplicación real del operador.
Además, después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, el método incluye además: almacenar la información de alerta en una ruta de almacenamiento asociada con la primera información de características biométricas.
El permiso de alerta de la tarea de alerta correspondiente a la información de alerta solo se proporciona al operador de la primera información de característica biométrica. Específicamente, cuando se desencadena la operación de captura de pantalla, se puede usar una cámara frontal para capturar una foto, se puede reconocer automáticamente una cara y las capturas de pantalla se agrupan según las caras. Por ejemplo, cuando un operador A (suponiendo que el operador A es el propietario) toma una captura de pantalla, la captura de pantalla se almacena en un álbum y todas las configuraciones de alerta de eventos posteriores se asocian con el operador A. Si un operador B (no el propietario) toma una captura de pantalla, la captura de pantalla se almacena en otra carpeta y todas las configuraciones de alerta de eventos subsiguientes se asocian con el operador B. El propietario puede establecer si desea permitir que se proporcione una notificación de alerta de evento a otro operador. El permiso de visualización de los archivos almacenados en las dos rutas solo se proporciona a los operadores que coinciden con la información de características biométricas correspondiente a las rutas.
Además, después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, el método incluye además: establecer una asociación entre la información de la primera característica biométrica y la tarea de alerta objetivo.
Es decir, la información de la primera característica biométrica y la tarea de alerta objetivo correspondiente se almacenan en correspondencia entre sí, de manera que la información de la primera característica biométrica puede invocarse cuando se realiza posteriormente la tarea de alerta objetivo.
Específicamente, la tarea de alerta objetivo se realiza según la información de la primera característica biométrica asociada, para garantizar que el permiso de visualización de la tarea de alerta solo se proporcione al operador correspondiente.
En las realizaciones de la presente descripción, se proporcionan tres ejemplos de determinación de la hora de alerta, y la determinación de la hora de alerta incluye al menos uno de los siguientes:
al recibir una segunda entrada del primer operador, determinar una primera hora para ingresar la segunda entrada como la hora de alerta;
reconocer una segunda hora en la captura de pantalla y determinar la segunda hora reconocida como la hora de alerta; y
determinar una tercera hora con base en la primera duración de retraso de alerta preestablecida, y determinar la tercera hora como la hora de alerta.
En las realizaciones de la presente descripción, la hora de alerta se determina usando los tres métodos anteriores. El primer método es, por ejemplo, obtener que una segunda entrada del primer operador sea la información de hora de mañana a las 8:30 a. m., y usar las 8:30 a. m. de mañana como hora de alerta. El segundo método es, por ejemplo, reconocer que una segunda hora en la captura de pantalla es a las 2:00 p. m. hoy, y usar las 2:00 p.m. hoy como la hora de alerta. El tercer método es, por ejemplo, si una hora actual es a las 8:00 a. m. y la primera duración de retraso de alerta es de diez minutos, determinar que una tercera hora es a las 8:10 a. m. y usar las 8:10 a. m. como hora de alerta.
Cuando la operación de determinar la hora de alerta incluye las múltiples operaciones anteriores, se determina una hora de alerta final según la prioridad de cada una de las operaciones anteriores. Sin embargo, esto no constituye una limitación. Por ejemplo, la prioridad de la primera operación es mayor que la prioridad de la segunda operación, y cuando la primera operación se combina con la segunda operación, la hora de alerta de la primera operación se usa como la hora de alerta final. Por ejemplo, la segunda operación se combina con la primera operación, y la prioridad de la primera operación es mayor que la prioridad de la segunda operación: suponiendo que se reconozca primero que la segunda hora en la captura de pantalla es a las 2:00 p.m. hoy, 2:00 hoy se usa como hora de alerta. Posteriormente, se detecta que la segunda entrada realizada por el primer operador en la hora de alerta es la información de hora de las 8:30 a. m. de mañana, y las 8:30 a. m. de mañana se usan como la hora de alerta final para reemplazar la hora de alerta de las 2:00 pm. hoy.
La tercera operación puede implementarse como: determinar una tercera hora con base en una hora actual y una primera duración de retraso de alerta preestablecida, y determinar la tercera hora como la hora de alerta.
La primera operación permite que la solución cumpla con los diferentes requisitos de diferentes operadores. La segunda operación permite que la solución sea más inteligente y automatizada sin operación manual por parte del operador. La tercera operación permite que la solución cumpla con el requisito del operador de privacidad de la hora de alerta, y cuando un operador del terminal no es el operador correspondiente al evento de alerta, se retrasa una alerta.
Además, después de realizar una operación de captura de pantalla y generar una captura de pantalla, el método incluye además: obtener una imagen de la cara del primer operador; y almacenar la imagen de la cara y la información de alerta en asociación entre sí; y la realización de una tarea de alerta objetivo incluye: mostrar la información de alerta y mostrar la imagen de la cara del primer operador.
Es decir, la imagen de la cara del primer operador y la información objetivo correspondiente se almacenan en correspondencia entre sí, de manera que la imagen de la cara del primer operador y la información de alerta correspondiente pueden invocarse cuando se realiza posteriormente la tarea de alerta objetivo.
De esta forma, la información de alerta se muestra junto con la imagen de la cara del operador correspondiente. Específicamente, por ejemplo, la cara capturada se superpone a la captura de pantalla para su visualización. Luego, cuando aparece la información de alerta, se puede conocer la identidad del operador que establece la alerta de evento.
Específicamente, la información de característica biológica es información de caras. Después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener información de característica biométrica del operador en respuesta a la primera entrada, y antes de realizar una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica, el método incluye además: determinar la información de la expresión facial según la información de la cara; determinar un nivel de alerta de evento según la información de expresión facial; determinar un parámetro de alerta según el nivel de alerta del evento; determinar información de alerta basada en la captura de pantalla; y generar la tarea de alerta objetivo según el parámetro de alerta y la información de alerta; donde el parámetro de alerta incluye una hora de alerta, un objeto de alerta y un método de alerta.
Es decir, se pueden establecer diferentes niveles de alertas, como por ejemplo, un nivel importante y un nivel general. El nivel importante corresponde a una alerta de 1 minuto de retraso, y el nivel general corresponde a una alerta de 10 minutos de retraso. El usuario puede establecer de forma específica y arbitraria una cantidad de niveles y un retraso de cada nivel. Un parámetro de alerta puede incluir una hora de alerta (un retraso de alerta), un objeto de alerta, un método de contacto de un objeto de alerta, un método de alerta y similares. El método de alerta puede incluir una alerta de mensaje SMS, una alerta de despertador, una alerta de mensaje, una alerta de teléfono, una alerta de calendario y similares. En las realizaciones de la presente descripción, el operador puede ser capturado durante un proceso de captura de pantalla y luego se analiza una expresión del operador. Las expresiones específicas pueden estar vinculadas a configuraciones específicas, por ejemplo, la expresión ansiosa corresponde al nivel importante y la duración del retraso de alerta se determina en 1 minuto. Luego, según el método anterior para determinar la información de alerta, la información de alerta se determina según la captura de pantalla, la tarea de alerta objetivo se genera según el parámetro de alerta y la información de alerta, y el operador B (la información de contacto del operador B puede estar preestablecida) recibe una alerta para vinculación, por lo que no es necesario ingresar a una interfaz de edición, lo que acelera la edición de alertas de eventos.
Además, las soluciones proporcionadas en las realizaciones de la presente descripción pueden aplicarse adicionalmente a un escenario de alerta de taxi. Por ejemplo, un pasajero (un primer operador) puede realizar una primera entrada en una interfaz de taxi (que incluye una ruta de taxi, información de matrícula y similares) para desencadenar la operación de captura de pantalla. La expresión de miedo hace que el terminal determine un nivel de alerta de evento como el nivel más alto, y luego el terminal determina un parámetro de alerta según el nivel de alerta de evento, determina la información de alerta con base en la captura de pantalla; y según el parámetro de alerta y la información de alerta, genera y realiza rápidamente la tarea de alerta objetivo, para enviar rápidamente la información de viaje del pasajero y la foto de la cara del pasajero a un contacto de emergencia designado previamente o a la policía para notificar que el pasajero está en peligro. Si el conductor cambia temporalmente la ruta de conducción, el pasajero también puede informar continuamente la ubicación al contacto de emergencia capturando pantallas varias veces, para acelerar el rescate sin que el conductor se dé cuenta.
El método de alerta puede referirse a un método de comunicación para la alerta, por ejemplo, una llamada de teléfono móvil o un mensaje de WeChat. El método de alerta también puede referirse a un momento en el que la información relevante de la hora de alerta se envía al terminal preestablecido, por ejemplo, la información relevante de la hora de alerta se envía a otro terminal después de haber sido creada, o cuando llega la hora de alerta, la información de alerta del evento de alerta se envía al terminal preestablecido. El método de alerta también puede referirse a una manera en la que se presenta la información relevante del evento de alerta, por ejemplo, el terminal actual muestra la captura de pantalla, o el terminal actual muestra la información de texto de alerta correspondiente al evento de alerta.
Específicamente, la realización de la tarea de alerta objetivo basada en la captura de pantalla y la información de la primera característica biométrica incluye: en caso de que llegue la hora de alerta de la tarea de alerta objetivo, obtener información de la segunda característica biométrica del segundo operador (específicamente puede ser un operador actualmente usando el terminal); en caso de que la información de la segunda característica biométrica coincida con la información de la primera característica biométrica, realizar la tarea de alerta objetivo; y en caso de que la información de la segunda característica biométrica no coincida con la información de la primera característica biométrica, retrasar la segunda duración de retraso de alerta preestablecida y realizar la tarea de alerta objetivo.
Es decir, en una implementación específica, cuando llega la hora de alerta del evento, se puede usar la cámara frontal para observar si el operador actual es el propietario (si actualmente nadie está usando el terminal, se puede considerar que el propietario está en uso); si el propietario está en uso, se alerta al propietario; y de lo contrario, la alerta se retrasa automáticamente por un período de tiempo, lo que puede proteger de manera más efectiva la privacidad del operador.
Por ejemplo, la primera información de característica biométrica es información de característica biométrica del operador A. En caso de que llegue la hora de alerta de la tarea de alerta objetivo, cuando el segundo operador es el operador A, se realiza la tarea de alerta objetivo. Cuando el segundo operador es el operador B, la segunda duración de retraso de alerta preestablecida se retrasa y se realiza la tarea de alerta objetivo.
En las realizaciones de la presente descripción, cuando el operador B (no el propietario) toma una captura de pantalla y establece una alerta de evento, el operador B puede elegir al menos uno de los siguientes métodos de alerta.
El primer método es compartir una operación de configuración con un terminal preestablecido a través de una opción de uso compartido después de completar la configuración, donde se puede acordar un formato de datos por adelantado. De esta manera, el formato de datos puede analizarse automáticamente después de compartir con el terminal preestablecido, y luego se genera automáticamente una alerta de evento correspondiente en el terminal preestablecido. Específicamente, el terminal preestablecido puede hacer referencia a un segundo dispositivo terminal del operador A o un terminal del operador B. Además, el terminal del operador B está asociado con la primera información de característica biométrica, por ejemplo, el terminal del operador B está autorizado para la alerta de tarea según la información de la primera característica biométrica. Es decir, en este método, además de ser aplicable al operador A (el propietario), el operador A (el propietario) puede compartir la operación de establecimiento.
En consecuencia, después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, el método incluye además: enviar información de tarea de alerta de la tarea de alerta objetivo a un terminal objetivo asociado con la primera información de característica biométrica; donde la información de la tarea de alerta incluye información de alerta y una hora de alerta.
La realización de una tarea de alerta objetivo incluye: desencadenar el terminal objetivo para realizar la tarea de alerta objetivo.
Es decir, la operación de configuración del evento de alerta se comparte con el terminal preestablecido, y la tarea de alerta correspondiente la realiza el terminal preestablecido, de modo que cuando es inconveniente para el operador B (no el propietario) editar directamente un evento de alerta en el terminal, es conveniente completar la edición del evento de alerta.
El segundo método es almacenar configuraciones relevantes en el terminal del operador A (el propietario) y luego configurar la información de contacto especificada. Después de que llega la hora especificada, el terminal del operador A puede llamar al terminal del operador B, enviar un mensaje SMS al terminal del operador B, o similar para alertar al operador B.
De esta forma, existe otra situación en la que el operador A (el propietario) toma una captura de pantalla para alertar a otra persona para que haga algo. La información de contacto de la persona alertada se puede anotar en la interfaz de edición, para notificar a la persona especificada cuando llega una hora preestablecido.
En consecuencia, después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, el método incluye además: obtener una entrada de forma de contacto objetivo por parte del primer operador.
La realización de una tarea de alerta de objetivo incluye: cuando llega la hora de alerta de la tarea de alerta objetivo, enviar, en la forma de contacto de objetivo, la información de alerta a un objeto objetivo asociado con la forma de contacto objetivo.
Es decir, el terminal que configura el evento de alerta realiza la tarea de alerta relevante y envía la información de alerta al objeto objetivo en la forma de contacto objetivo, para alertar convenientemente al operador B (no al propietario).
Por ejemplo: después de realizar la operación de captura de pantalla, generar la captura de pantalla y obtener la primera información de característica biométrica del operador B (no el propietario) en respuesta a la primera entrada del operador B (no el propietario), se obtiene la forma de contacto objetivo (como números de teléfono móvil o un mensaje SMS) ingresada por el operador B (no el propietario); cuando llega la hora de alerta de la tarea de alerta objetivo, la información de alerta se envía, en la forma de contacto objetivo, al objeto objetivo (tal como un terminal insertado con una SIM correspondiente a los números de teléfono móvil) asociado con la forma de contacto objetivo.
Una realización de la presente descripción proporciona además un terminal. Como se muestra en la FIG. 4, el terminal incluye:
un primer módulo 401 de recepción, configurado para recibir una primera entrada de un primer operador;
un primer módulo 402 de procesamiento, configurado para realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada; y
un primer módulo 403 de ejecución, configurado para realizar una tarea de alerta objetivo basada en la captura de pantalla y la primera información de característica biométrica.
El terminal proporcionado en las realizaciones de la presente descripción recibe una primera entrada de un primer operador; realiza una operación de captura de pantalla, genera una captura de pantalla y obtiene información de la primera característica biométrica del primer operador en respuesta a la primera entrada; y realiza una tarea de alerta objetivo basada en la captura de pantalla y la primera información de característica biométrica. Esto puede evitar la fuga de privacidad causada por alertas de eventos cuando el propietario no usa un teléfono móvil, y la privacidad del propietario puede estar bien protegida. Debido a que la tarea de alerta objetivo se realiza con base en la primera información de característica biométrica, se mejora la seguridad de la alerta de tarea.
La información de característica biométrica incluye al menos uno de los siguientes: información de cara, información de huellas dactilares e información de iris.
Además, el terminal incluye además: un primer módulo de determinación, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la información de característica biométrica del operador en respuesta a la primera entrada; y antes de realizar una tarea de alerta objetivo con base en la captura de pantalla y la información de característica biométrica, determinar una hora de alerta; un segundo módulo de determinación, configurado para determinar la información de alerta basada en la captura de pantalla; y un primer módulo de generación, configurado para generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta.
La determinación de la información de alerta basada en la captura de pantalla incluye al menos uno de los siguientes:
determinar la captura de pantalla como información de alerta; y
extraer la información objetivo de la captura de pantalla y determinar la información objetivo como información de alerta.
Además, el terminal incluye además: un primer módulo de almacenamiento, configurado para: después de generar la tarea de alerta objetivo basada en la información de alerta y la hora de alerta, almacenar la información de alerta en una ruta de almacenamiento asociada con la primera información de característica biométrica.
Además, el terminal incluye además: un primer módulo de establecimiento, configurado para: después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, establecer una asociación entre la información de la primera característica biométrica y la tarea de alerta objetivo.
En las realizaciones de la presente descripción, la determinación de una hora de alerta incluye al menos uno de los siguientes:
al recibir una segunda entrada del primer operador, determinar una primera hora para ingresar la segunda entrada como la hora de alerta;
reconocer una segunda hora en la captura de pantalla y determinar la segunda hora reconocida como la hora de alerta; y
determinar una tercera hora con base en la primera duración de retraso de alerta preestablecida , y determinar la tercera hora como la hora de alerta.
En las realizaciones de la presente descripción, el terminal incluye además: un primer módulo de obtención, configurado para: después de realizar una operación de captura de pantalla y generar una captura de pantalla, obtener una imagen de la cara del primer operador; y un segundo módulo de almacenamiento, configurado para almacenar la imagen de la cara y la información de alerta en asociación entre sí; y el primer módulo de ejecución incluye: un primer submódulo de procesamiento, configurado para mostrar la información de alerta, y mostrar la imagen de la cara del primer operador.
Específicamente, la información de característica biológica es información de caras. El terminal incluye además: un tercer módulo de determinación, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener información de característica biométrica del operador en respuesta a la primera entrada, y antes de realizar una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica determinar la información de la expresión facial según la información de la cara; un cuarto módulo de determinación, configurado para determinar un nivel de alerta de evento según la información de la expresión facial; un quinto módulo de determinación, configurado para determinar un parámetro de alerta según el nivel de alerta del evento; un sexto módulo de determinación, configurado para determinar información de alerta basada en la captura de pantalla; y un segundo módulo de generación, configurado para generar la tarea de alerta objetivo según el parámetro de alerta y la información de alerta; donde el parámetro de alerta incluye una hora de alerta, un objeto de alerta y un método de alerta.
Específicamente, el primer módulo de ejecución incluye: un primer submódulo de obtención, configurado para obtener una segunda información de característica biométrica de un segundo operador cuando llega la hora de alerta de la tarea de alerta objetivo; un primer submódulo de ejecución, configurado para realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica coincide con la información de la primera característica biométrica; y un segundo submódulo de ejecución, configurado para retrasar una segunda duración de retraso de alerta preestablecida y realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica no coincide con la información de la primera característica biométrica.
En las realizaciones de la presente descripción, cuando el operador B (no el propietario) toma una captura de pantalla y establece una alerta de evento, el operador B puede elegir al menos uno de los siguientes métodos de alerta.
En el primer método, el terminal incluye además: un primer módulo de envío, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la información de la primera característica biométrica del primer operador en respuesta a la primera entrada, enviar una información de tarea de alerta de la tarea de alerta objetivo a un terminal objetivo asociado con la primera información de característica biométrica; donde la información de tarea de alerta incluye información de alerta y una hora de alerta.
El primer módulo de ejecución incluye: un primer submódulo de activación, configurado para desencadenar el terminal objetivo para realizar la tarea de alerta objetivo.
En el segundo método, el terminal incluye además: un segundo módulo de obtención, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, obtener una forma de contacto objetivo por el primer operador.
El primer módulo de ejecución incluye: un segundo submódulo de procesamiento, configurado para: cuando llega la hora de alerta de la tarea de alerta objetivo, enviar, en la forma de contacto objetivo, la información de alerta a un objeto objetivo asociado con la forma de contacto objetivo.
Un terminal según una realización de la presente descripción puede implementar los procesos realizados por el terminal en las realizaciones del método en la FIG. 1 a la FIG. 3. Para evitar repeticiones, los detalles no se describen en el presente documento nuevamente.
La FIG. 5 es un diagrama estructural esquemático del hardware de un terminal que implementa realizaciones de la presente descripción. El terminal 50 incluye pero no se limita a: una unidad 51 de radiofrecuencia, un módulo 52 de red, una unidad 53 de salida de audio, una unidad 54 de entrada, un sensor 55, una unidad 56 de visualización, una unidad 57 de entrada de usuario, una unidad 58 de interfaz, una memoria 59, un procesador 510, una fuente de alimentación 511 y otros componentes. Un experto en la materia podrá entender que la estructura del terminal que se muestra en la FIG. 5 no constituye una limitación del terminal, y el terminal puede incluir más o menos componentes que los que se muestran en la figura, o combinar algunos componentes, o tener diferentes disposiciones de componentes. En esta realización de la presente descripción, el terminal incluye, entre otros, un teléfono móvil, una tableta, un ordenador portátil, un ordenador de mano, un terminal montado en un vehículo, un dispositivo portátil, un podómetro y similares.
El procesador 510 está configurado para: recibir una primera entrada de un primer operador; realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada; y realizar una tarea de alerta objetivo basada en la captura de pantalla y la primera información de característica biométrica.
En las realizaciones de la presente descripción, se recibe una primera entrada de un primer operador; se realiza una operación de captura de pantalla, se emite una captura de pantalla y se obtiene la primera información de característica biométrica del primer operador en respuesta a la primera entrada; y se realiza una tarea de alerta de objetivo con base en la captura de pantalla y la información de la primera característica biométrica. Esto puede evitar la pérdida de privacidad causada por alertas de eventos cuando el propietario no usa un teléfono móvil, y la privacidad del propietario puede estar bien protegida. Debido a que la tarea de alerta objetivo se realiza con base en la primera información de característica biométrica, se mejora la seguridad de la alerta de tarea.
Opcionalmente, la información de característica biométrica incluye al menos uno de los siguientes: información de cara, información de huellas dactilares e información de iris.
Opcionalmente, el procesador 510 está configurado además para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener información de característica biométrica del operador en respuesta a la primera entrada; y antes de realizar una tarea de alerta objetivo con base en la captura de pantalla y la información de característica biométrica, determinar una hora de alerta; determinar la información de alerta con base en la captura de pantalla; y generar la tarea de alerta objetivo con base en la información de alerta y la horade alerta.
Opcionalmente, la información de alerta determinante basada en la captura de pantalla incluye al menos uno de los siguientes:
determinar la captura de pantalla como información de alerta; y
extraer información objetivo de la captura de pantalla y determinar la información objetivo como información de alerta.
Opcionalmente, el procesador 510 está además configurado para: después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, almacenar la información de alerta en una ruta de almacenamiento asociada con la primera información de característica biométrica.
Opcionalmente, el procesador 510 está además configurado para: después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, establecer una asociación entre la primera información de característica biométrica y la tarea de alerta objetivo.
Opcionalmente, la determinación de una hora de alerta incluye al menos uno de los siguientes:
al recibir una segunda entrada del primer operador, determinar una primera hora para ingresar la segunda entrada como la hora de alerta;
reconocer una segunda hora en la captura de pantalla y determinar la segunda hora reconocida como la hora de alerta; y
determinar una tercera hora con base en la primera duración de retraso de alerta preestablecida , y determinar la tercera hora como la hora de alerta.
Opcionalmente, el procesador 510 está además configurado para: después de realizar una operación de captura de pantalla y generar una captura de pantalla, obtener una imagen de la cara del primer operador; y almacenar la imagen de la cara y la información de alerta en asociación entre sí.
El procesador 510 está específicamente configurado para: mostrar la información de alerta y mostrar la imagen de la cara del primer operador.
Opcionalmente, la información de característica biológica es información de caras. El procesador 510 está configurado además para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener información de característica biométrica del operador en respuesta a la primera entrada, y antes de realizar una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica, determinar la información de la expresión facial según la información de la cara; determinar un nivel de alerta de evento según la información de la expresión facial; determinar un parámetro de alerta según el nivel de alerta del evento; determinar la información de alerta con base en la captura de pantalla; y generar la tarea de alerta objetivo según el parámetro de alerta y la información de alerta; donde el parámetro de alerta incluye una hora de alerta, un objeto de alerta y un método de alerta.
Opcionalmente, el procesador 510 está específicamente configurado para: obtener información de una segunda característica biométrica de un segundo operador cuando llega la hora de alerta de la tarea de alerta objetivo; realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica coincida con la información de la primera característica biométrica; y retrasar una segunda duración de retraso de alerta preestablecida y realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica no coincide con la información de la primera característica biométrica.
Opcionalmente, el procesador 510 está configurado además para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, enviar información de tarea de alerta de la tarea de alerta objetivo a un terminal objetivo asociado con la primera información de característica biométrica; donde la información de la tarea de alerta incluye información de alerta y una hora de alerta.
El procesador 510 está además configurado para: activar el terminal objetivo para realizar la tarea de alerta objetivo.
Opcionalmente, el procesador 510 está configurado además para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, obtener una entrada de forma de contacto objetivo por parte del primer operador.
El procesador 510 está específicamente configurado para: cuando llega la hora de alerta de la tarea de alerta objetivo, enviar, en la forma de contacto objetivo, la información de alerta a un objeto objetivo asociado con la forma de contacto objetivo.
Debe entenderse que en las realizaciones de la presente descripción, una unidad 51 de radiofrecuencia puede configurarse para recibir y enviar información o recibir y enviar señales durante las llamadas. Específicamente, la unidad de radiofrecuencia recibe datos de enlace descendente desde una estación base y transmite los datos de enlace descendente al procesador 510 para su procesamiento. Además, la unidad de radiofrecuencia envía datos de enlace ascendente a la estación base. Generalmente, la unidad 51 de radiofrecuencia incluye, pero no se limita a, una antena, al menos un amplificador, un transceptor, un acoplador, un amplificador de bajo ruido, un duplexor y similares. Además, la unidad 51 de radiofrecuencia puede comunicarse además con otros dispositivos a través de un sistema y una red de comunicaciones inalámbricas.
El terminal proporciona acceso inalámbrico a Internet de banda ancha a un usuario a través del módulo 52 de red, por ejemplo, ayuda al usuario a recibir y enviar correos electrónicos, navegar por páginas web y acceder a medios de transmisión, etc.
La unidad 53 de salida de audio puede convertir los datos de audio recibidos por la unidad 51 de radiofrecuencia o el módulo 52 de red o almacenados en la memoria 59 en una señal de audio y emitir la señal de audio en sonido. Además, la unidad 53 de salida de audio puede proporcionar además una salida de audio (por ejemplo, sonido de recepción de señal de llamada y sonido de recepción de mensaje) relacionada con una función específica realizada por el terminal 50. La unidad 53 de salida de audio incluye un altavoz, un zumbador, un teléfono receptor, y similares.
La unidad 54 de entrada está configurada para recibir señales de audio o video. La unidad 54 de entrada puede incluir una unidad de procesamiento de gráficos (Unidad de Procesamiento de Gráficos, GPU) 541 y un micrófono 542. La unidad 541 de procesamiento de gráficos procesa datos de imagen de una imagen estática o un video obtenido por un aparato de captura de imágenes (por ejemplo, una cámara) en un modo de captura de video o un modo de captura de imagen. Un cuadro de imagen procesado puede visualizarse en la unidad 56 de visualización. El cuadro de imagen procesado por la unidad 541 de procesamiento de gráficos puede almacenarse en la memoria 59 (u otro medio de almacenamiento) o enviarse a través de la unidad 51 de radiofrecuencia o el módulo 52 de red. El micrófono 542 puede recibir un sonido y puede procesar dicho sonido en datos de audio. Los datos de audio procesados pueden convertirse, en modo de llamada telefónica, a un formato que puede enviarse a una estación base de comunicación móvil a través de la unidad 51 de radiofrecuencia para su salida.
El terminal 50 incluye además al menos un sensor 55, por ejemplo, un sensor óptico, un sensor de movimiento y otros sensores. Específicamente, el sensor óptico incluye un sensor óptico ambiental y un sensor de proximidad. El sensor óptico ambiental puede ajustar el brillo de un panel 561 de visualización con base en el brillo de la luz ambiental. El sensor de proximidad puede cerrar el panel 561 de visualización y/o retroiluminar cuando el terminal 50 se mueve hacia un αdo. Como un tipo de sensor de movimiento, un sensor de acelerómetro puede detectar magnitudes de aceleraciones en todas las direcciones (generalmente tres ejes), puede detectar una magnitud y una dirección de la gravedad en un estado estático y puede aplicarse al reconocimiento de la postura del terminal (como la pantalla que cambia entre retrato y paisaje, juegos relacionados y calibración de postura del magnetómetro), funciones relacionadas con el reconocimiento de vibraciones (como podómetro y golpeteo) y similares. El sensor 55 también puede incluir un sensor de huellas dactilares, un sensor de presión, un sensor de iris, un sensor molecular, un giroscopio, un barómetro, un higrómetro, un termómetro, un sensor de infrarrojos y similares. Los detalles no se describen en el presente documento.
La unidad 56 de visualización está configurada para mostrar información ingresada por un usuario o información proporcionada para el usuario. La unidad 56 de visualización puede incluir un panel 561 de visualización, y el panel 561 de visualización puede estar configurado en forma de elemento de visualización de cristal líquido (en inglés, liquid crystal display, LCD), diodo orgánico emisor de luz (en inglés, organic light.emitting diode, OLED) o similares.
La unidad 57 de entrada de usuario puede configurarse para recibir la información digital o de caracteres introducida y generar una entrada de señal clave relacionada con la configuración del usuario y el control de funciones del terminal. Específicamente, la unidad 57 de entrada de usuario incluye un panel 571 táctil y otro dispositivo 572 de entrada. El panel 571 táctil también se denomina pantalla táctil y puede recopilar una operación táctil realizada por un usuario en o cerca del panel 571 táctil (como una operación realizada por un usuario en el panel 571 táctil o cerca del panel 571 táctil usando cualquier objeto o accesorio adecuado, como un dedo o un lápiz óptico). El panel 571 táctil puede incluir dos partes: un aparato de detección táctil y un controlador táctil. El aparato de detección táctil detecta una posición táctil de un usuario, detecta una señal generada por una operación táctil y transmite la señal al controlador táctil. El controlador táctil recibe información táctil del aparato de detección táctil, convierte la información táctil en coordenadas de contacto, envía las coordenadas de contacto al procesador 510 y recibe y ejecuta un comando del procesador 510. Además, el panel 571 táctil puede ser de un tipo resistivo, un tipo capacitivo, un tipo infrarrojo, un tipo de onda acústica superficial, o similares. Además del panel 571 táctil, la unidad 57 de entrada de usuario también puede incluir otro dispositivo 572 de entrada. Específicamente, el otro dispositivo 572 de entrada puede incluir, entre otros, un teclado físico, una tecla de función (como una tecla de control de volumen o una tecla de encendido/apagado), una bola de seguimiento, un ratón, un joystick y similares. Los detalles no se describen en el presente documento.
Además, el panel 571 táctil puede cubrir el panel 561 de visualización. Al detectar la operación táctil en o cerca del panel 571 táctil, el panel 571 táctil transmite la operación táctil al procesador 510 para determinar un tipo de evento táctil, y luego el procesador 510 proporciona la salida visual correspondiente en el panel 561 de visualización con base en el tipo de evento táctil. Aunque en la FIG. 5, el panel 571 táctil y el panel 561 de visualización están configurados como dos componentes independientes para implementar funciones de entrada y salida del terminal, en algunas realizaciones, el panel 571 táctil y el panel 561 de visualización pueden integrarse para implementar las funciones de entrada y salida de la terminal Los detalles no están limitados en el presente documento.
La unidad 58 de interfaz es una interfaz que conecta un aparato externo al terminal 50. Por ejemplo, el aparato externo puede incluir un puerto de auriculares con cable o inalámbrico, un puerto de fuente de alimentación externa (o un cargador de batería), un puerto de datos con cable o inalámbrico, un puerto de tarjeta de almacenamiento, un puerto usado para conectarse a un aparato que tiene un módulo de identidad, un puerto de entrada/salida (I/O) de audio, un puerto I/O de vídeo y un puerto para auriculares. La unidad 58 de interfaz se puede configurar para recibir una entrada (por ejemplo, información de datos y alimentación) del aparato externo y transmitir la entrada recibida a uno o más elementos en el terminal 50, o transmitir datos entre el terminal 50 y el aparato externo.
La memoria 59 puede configurarse para almacenar un programa de software así como todo tipo de datos. La memoria 59 puede incluir principalmente un área de almacenamiento de programas y un área de almacenamiento de datos. El área de almacenamiento de programas puede almacenar un sistema operativo, un programa de aplicación requerido por al menos una función (tal como una función de reproducción de sonido y una función de reproducción de imágenes) y similares. El área de almacenamiento de datos puede almacenar datos (tales como datos de audio y una libreta de direcciones) creados con base en el uso del teléfono móvil y similares. Además, la memoria 59 puede incluir una memoria de acceso aleatorio de alta velocidad y puede incluir además una memoria no volátil como al menos un componente de almacenamiento de disco magnético, un componente de memoria flash u otro componente de almacenamiento de estado sólido volátil.
El procesador 510 es un centro de control del terminal y conecta todas las partes del terminal completo usando varias interfaces y líneas. Al ejecutar o hacer funcionar un programa de software y/o un módulo almacenado en la memoria 59 e invocando los datos almacenados en la memoria 59, el procesador 510 realiza varias funciones del terminal y el procesamiento de datos para realizar un control general del terminal. El procesador 510 puede incluir una o más unidades de procesamiento. Opcionalmente, el procesador 510 puede integrar un procesador de aplicaciones y un procesador de módem. El procesador de aplicaciones procesa principalmente un sistema operativo, una interfaz de usuario, un programa de aplicación y similares. El procesador del módem procesa principalmente la comunicación inalámbrica. Puede entenderse que, alternativamente, el procesador del módem puede no estar integrado en el procesador 510.
El terminal 50 puede incluir además la fuente 511 de alimentación (como una batería) que suministra energía a cada componente. Opcionalmente, la fuente 511 de alimentación puede conectarse lógicamente al procesador 510 usando un sistema de gestión de energía, para implementar funciones tales como carga, descarga y gestión del consumo de energía usando el sistema de gestión de energía.
Además, el terminal 50 incluye algunos módulos funcionales no mostrados. Los detalles no se describen en el presente documento.
Opcionalmente, una realización de esta solicitud proporciona además un terminal, que incluye un procesador 510, una memoria 59 y un programa informático almacenado en la memoria 59 y ejecutable en el procesador 510. Cuando el programa informático es ejecutado por el procesador 510, se implementan los procesos de las realizaciones del método de procesamiento de tareas de alerta anterior y se pueden lograr los mismos efectos técnicos. Para evitar repeticiones, los detalles no se describen en el presente documento nuevamente.
Una realización de la presente descripción proporciona además un medio de almacenamiento legible por ordenador. El medio de almacenamiento legible por ordenador almacena un programa informático. Cuando el programa informático es ejecutado por un procesador, se implementan procesos de realizaciones del método de procesamiento de tareas de alerta anterior y se puede lograr el mismo efecto técnico. Para evitar repeticiones, los detalles no se describen en el presente documento nuevamente. El medio de almacenamiento legible por ordenador es, por ejemplo, una memoria de solo lectura (en inglés, Read-Only Memory, ROM), una memoria de acceso aleatorio (en inglés, Random Access Memory, RAM), un disco magnético o un disco óptico.
Cabe señalar que en esta memoria descriptiva, los términos "comprenden", "incluyen" y cualquier otra variante de los mismos pretenden cubrir la inclusión no exclusiva, de modo que un proceso, un método, un artículo o un aparato que incluye un serie de elementos no sólo incluye estos mismos elementos, sino que también incluye otros elementos no enumerados expresamente, o también incluye elementos inherentes a este proceso, método, artículo o aparato. Un elemento limitado por "incluye un..." no excluye, sin más restricciones, la presencia de elementos idénticos adicionales en el proceso, método, artículo o aparato que incluye el elemento.
Basándose en las descripciones anteriores de las realizaciones, un experto en la materia puede comprender claramente que el método de la realización anterior puede implementarse mediante software además de una plataforma de hardware universal necesaria o solo mediante hardware. En la mayoría de las circunstancias, la primera es la forma de implementación preferida. Basándose en tal entendimiento, las soluciones técnicas de la presente descripción esencialmente o la parte que contribuye a la técnica relacionada pueden implementarse en forma de un producto de software. El producto de software informático se almacena en un medio de almacenamiento (como una ROM/RAM, un disco duro o un disco óptico) e incluye varias instrucciones para dar instrucciones a un terminal (que puede ser un teléfono móvil, un ordenador, un servidor, un acondicionador de aire, un dispositivo de red o similar) para realizar los métodos descritos en las realizaciones de la presente descripción.
Las realizaciones de la presente descripción se describen anteriormente con referencia a los dibujos adjuntos, pero la presente descripción no se limita a las implementaciones específicas anteriores. Las implementaciones específicas anteriores son meramente esquemáticas en lugar de restrictivas.

Claims (15)

REIVINDICACIONES
1. Un método de procesamiento de tareas de alerta, realizado por un terminal, que comprende:
recibir (101) una primera entrada de un primer operador;
realizar (102) una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada; y caracterizado por realizar (103) una tarea de alerta objetivo basada en la captura de pantalla y la primera información de característica biométrica;
en donde después de realizar (102) una operación de captura de pantalla, generar una captura de pantalla y obtener la información de característica biométrica del operador en respuesta a la primera entrada, y antes de realizar (103) una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica, el método comprende además:
determinar una hora de alerta, basado en al menos uno de una entrada del primer operador, una hora reconocida en la captura de pantalla o una duración de retraso de alerta preestablecida;
determinar la información de alerta basada en la captura de pantalla; y
generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta;
en donde la determinación de la información de alerta basada en la captura de pantalla comprende al menos uno de los siguientes:
determinar la captura de pantalla como información de alerta; y
extraer información objetivo de la captura de pantalla y determinar la información objetivo como la información de alerta;
en donde, después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, el método comprende además:
almacenar la información de la primera característica biométrica y la tarea de alerta objetivo en correspondencia entre sí, para establecer una asociación entre la información de la primera característica biométrica y la tarea de alerta objetivo;
en donde la realización (103) de una tarea de alerta objetivo basada en la captura de pantalla y la primera información de característica biométrica comprende:
obtener información de una segunda característica biométrica de un segundo operador cuando llega la hora de alerta de la tarea de alerta objetivo;
realizar la tarea de alerta de objetivo cuando la información de la segunda característica biométrica coincide con la información de la primera característica biométrica; y
retrasar una segunda duración de retraso de alerta preestablecida y realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica no coincide con la información de la primera característica biométrica.
2. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde la información de característica biométrica comprende al menos uno de los siguientes: información de cara, información de huellas dactilares e información de iris.
3. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde la determinación de una hora de alerta comprende uno de los siguientes:
al recibir una segunda entrada del primer operador, determinar una primera hora ingresada por la segunda entrada como la hora de alerta;
reconocer una segunda hora en la captura de pantalla y determinar la segunda hora reconocida como la hora de alerta; y
determinar una tercera hora con base en la primera duración de retraso de alerta preestablecida , y determinar la tercera hora como la hora de alerta.
4. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde la determinación de una hora de alerta comprende:
realizar al menos dos de las siguientes operaciones: obtener una hora ingresada por una segunda entrada del primer operador, obtener una hora en la captura de pantalla o determinar una hora con base en la duración preestablecida de la primera alerta de retraso; y
seleccionar una hora de las horas obtenidas como hora de alerta, con base en las prioridades de las operaciones.
5. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde después de realizar (102) una operación de captura de pantalla y generar una captura de pantalla, el método comprende además:
obtener una imagen de la cara del primer operador; y
almacenar la imagen de la cara y la información de alerta en asociación entre sí; y
la realización de una tarea de alerta objetivo comprende:
mostrar la información de alerta y mostrar la imagen de la cara del primer operador.
6. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde la información de característica biométrica es información facial;
después de realizar (102) una operación de captura de pantalla, generar una captura de pantalla y obtener la información de característica biométrica del operador en respuesta a la primera entrada; y antes de realizar (103) una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica, el método comprende además:
determinar la información de la expresión facial según la información de la cara;
determinar un nivel de alerta de evento según la información de expresión facial;
determinar un parámetro de alerta según el nivel de alerta del evento;
determinar información de alerta basada en la captura de pantalla; y
generar la tarea de alerta objetivo según el parámetro de alerta y la información de alerta;
en donde el parámetro de alerta comprende una hora de alerta, un objeto de alerta y un método de alerta.
7. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde después de realizar (102) una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, el método comprende además:
enviar información de tarea de alerta de la tarea de alerta objetivo a otro terminal asociado con la primera información de característica biométrica;
en donde la información de la tarea de alerta comprende la información de alerta y la hora de alerta; y
la realización de una tarea de alerta objetivo comprende:
activar el otro terminal para realizar la tarea de alerta objetivo.
8. El método de procesamiento de tareas de alerta según la reivindicación 1, en donde después de realizar (102) una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, el método comprende además:
obtener una entrada de forma de contacto objetivo por parte del primer operador; y
la realización de una tarea de alerta objetivo comprende:
cuando llega la hora de alerta de la tarea de alerta objetivo, enviar, en la forma de contacto objetivo, la información de alerta a un objeto objetivo asociado con la forma de contacto objetivo.
9. Una terminal que comprende:
un primer módulo (401) de recepción, configurado para recibir una primera entrada de un primer operador;
un primer módulo (402) de procesamiento, configurado para realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada; y
un primer módulo (403) de ejecución, configurado para realizar una tarea de alerta objetivo con base en la captura de pantalla y la información de la primera característica biométrica;
en donde el terminal comprende además:
un primer módulo de determinación, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la información de característica biométrica del operador en respuesta a la primera entrada, y antes de realizar una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica, determinar una hora de alerta basada en al menos una entrada del primer operador, una hora reconocida en la captura de pantalla o una duración de retraso de alerta preestablecida;
un segundo módulo de determinación, configurado para determinar la información de alerta basada en la captura de pantalla; y
un primer módulo generación, configurado para generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta;
en donde la determinación de la información de alerta basada en la captura de pantalla comprende al menos uno de los siguientes:
determinar la captura de pantalla como información de alerta; y
extraer información objetivo de la captura de pantalla y determinar la información objetivo como información de alerta; en donde el terminal comprende además:
un primer módulo de establecimiento, configurado para: después de generar la tarea de alerta objetivo con base en la información de alerta y la hora de alerta, almacenar la información de la primera característica biométrica y la tarea de alerta objetivo en correspondencia entre sí, para establecer una asociación entre la primera información de característica biométrica y la tarea de alerta objetivo;
en donde el primer módulo de ejecución comprende:
un primer submódulo de obtención, configurado para obtener una segunda información de característica biométrica de un segundo operador cuando llega la hora de alerta de la tarea de alerta objetivo;
un primer submódulo de ejecución, configurado para realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica coincide con la información de la primera característica biométrica; y
un segundo submódulo de ejecución, configurado para retrasar una segunda duración de retraso de alerta preestablecida y realizar la tarea de alerta objetivo cuando la información de la segunda característica biométrica no coincide con la información de la primera característica biométrica.
10. El terminal según la reivindicación 9, en donde la información de característica biométrica comprende al menos uno de los siguientes: información de cara, información de huellas dactilares e información de iris.
11. El terminal según la reivindicación 9, en donde la determinación de una hora de alerta comprende uno de los siguientes:
al recibir una segunda entrada del primer operador, determinar una primera hora ingresada por la segunda entrada como la horade alerta;
reconocer una segunda hora en la captura de pantalla y determinar la segunda hora reconocida como la hora de alerta; y
determinar una tercera hora con base en la primera duración de retraso de alerta preestablecida , y determinar la tercera hora como la hora de alerta.
12. El terminal según la reivindicación 9, en donde la determinación de una hora de alerta comprende:
realizar al menos dos de las siguientes operaciones: obtener una hora ingresada por una segunda entrada del primer operador, obtener una hora en la captura de pantalla o determinar una hora con base en la primera duración de retraso de alerta preestablecida ; y
seleccionar una hora de las horas obtenidas como hora de alerta, con base en las prioridades de las operaciones.
13. El terminal según la reivindicación 9, en donde el terminal comprende además:
un primer módulo de obtención, configurado para: después de realizar una operación de captura de pantalla y generar una captura de pantalla, obtener una imagen de la cara del primer operador; y
un segundo módulo de almacenamiento, configurado para almacenar la imagen de la cara y la información de alerta en asociación entre sí; y
el primer módulo de ejecución comprende:
un primer submódulo de procesamiento, configurado para mostrar la información de alerta, y mostrar la imagen de la cara del primer operador.
14. El terminal según la reivindicación 9, en donde la información de característica biométrica es información facial; y el terminal comprende además:
un tercer módulo de determinación, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la información de característica biométrica del operador en respuesta a la primera entrada, y antes de realizar una tarea de alerta objetivo basada en la captura de pantalla y la información de característica biométrica, determinar la información de la expresión facial según la información de la cara;
un cuarto módulo de determinación, configurado para determinar un nivel de alerta de evento según la información de la expresión facial;
un quinto módulo de determinación, configurado para determinar un parámetro de alerta según el nivel de alerta del evento;
un sexto módulo de determinación, configurado para determinar información de alerta basada en la captura de pantalla; y
un segundo módulo de generación, configurado para generar la tarea de alerta objetivo según el parámetro de alerta y la información de alerta;
en donde el parámetro de alerta comprende una hora de alerta, un objeto de alerta y un método de alerta.
15. El terminal según la reivindicación 9, en donde el terminal comprende además:
un primer módulo de envío, configurado para: después de realizar una operación de captura de pantalla, generar una captura de pantalla y obtener la primera información de característica biométrica del primer operador en respuesta a la primera entrada, enviar la información de tarea de alerta de la tarea de alerta objetivo a otro terminal asociado con la primera información de característica biométrica;
en donde la información de tarea de alerta comprende la información de alerta y la hora de alerta; y
el primer módulo de ejecución comprende:
un primer submódulo de activación, configurado para desencadenar el otro terminal para realizar la tarea de alerta objetivo.
ES20762192T 2019-02-26 2020-01-23 Método de procesamiento de tareas de alerta, terminal y medio de almacenamiento legible por ordenador Active ES2952255T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910142050.6A CN109981890B (zh) 2019-02-26 2019-02-26 一种提醒任务处理方法、终端及计算机可读存储介质
PCT/CN2020/073956 WO2020173283A1 (zh) 2019-02-26 2020-01-23 提醒任务处理方法、终端及计算机可读存储介质

Publications (1)

Publication Number Publication Date
ES2952255T3 true ES2952255T3 (es) 2023-10-30

Family

ID=67077400

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20762192T Active ES2952255T3 (es) 2019-02-26 2020-01-23 Método de procesamiento de tareas de alerta, terminal y medio de almacenamiento legible por ordenador

Country Status (5)

Country Link
US (1) US11775625B2 (es)
EP (1) EP3934217B1 (es)
CN (1) CN109981890B (es)
ES (1) ES2952255T3 (es)
WO (1) WO2020173283A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109981890B (zh) * 2019-02-26 2020-10-27 维沃移动通信有限公司 一种提醒任务处理方法、终端及计算机可读存储介质
CN110489984B (zh) * 2019-08-19 2023-09-08 深圳市沃特沃德信息有限公司 待处理事项的提醒方法、装置、计算机设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6853739B2 (en) * 2002-05-15 2005-02-08 Bio Com, Llc Identity verification system
JP4305672B2 (ja) * 2006-11-21 2009-07-29 ソニー株式会社 個人識別装置、個人識別方法、識別用辞書データの更新方法および識別用辞書データの更新プログラム
CN101226671B (zh) * 2008-02-03 2010-04-14 北京飞天诚信科技有限公司 一种记事提醒方法和装置
US20150058369A1 (en) * 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Electronic device and method for using captured image in electronic device
CN103634683A (zh) * 2013-11-29 2014-03-12 乐视致新电子科技(天津)有限公司 对智能电视进行截屏的方法及装置
CN105611029A (zh) 2014-10-29 2016-05-25 小米科技有限责任公司 终端设备提醒功能的控制方法及装置
US10380657B2 (en) * 2015-03-04 2019-08-13 International Business Machines Corporation Rapid cognitive mobile application review
CN104821987A (zh) * 2015-04-16 2015-08-05 小米科技有限责任公司 基于闹钟的提醒方法及装置
CN104808921A (zh) 2015-05-08 2015-07-29 三星电子(中国)研发中心 进行信息提醒的方法及装置
CN105095343A (zh) * 2015-05-28 2015-11-25 百度在线网络技术(北京)有限公司 信息处理方法、信息显示方法及装置
CN104932879A (zh) * 2015-05-29 2015-09-23 努比亚技术有限公司 提醒方法和提醒装置
US10489973B2 (en) * 2015-08-17 2019-11-26 Cubic Corporation 3D face reconstruction from gate camera
CN106610772A (zh) * 2015-10-21 2017-05-03 中兴通讯股份有限公司 一种截屏的方法、装置及智能终端
CN105912184A (zh) 2015-10-30 2016-08-31 乐视移动智能信息技术(北京)有限公司 信息显示方法及装置
CN106648370B (zh) * 2016-12-29 2018-09-04 维沃移动通信有限公司 一种截图的加密方法及移动终端
CN107577956A (zh) 2017-08-29 2018-01-12 维沃移动通信有限公司 一种照片保密方法及电子设备
CN107784089B (zh) * 2017-09-30 2021-04-09 维沃移动通信有限公司 一种多媒体数据的存储方法、处理方法及移动终端
CN108491713B (zh) * 2018-04-03 2019-12-17 维沃移动通信有限公司 一种安全提醒方法和电子设备
CN108664288A (zh) * 2018-05-14 2018-10-16 维沃移动通信有限公司 一种图像截取方法及移动终端
CN108881596A (zh) * 2018-08-09 2018-11-23 佛山市灏金赢科技有限公司 一种拍摄信息处理方法、装置及终端
CN109284979A (zh) * 2018-09-20 2019-01-29 北京得意音通技术有限责任公司 业务处理方法、装置、电子设备和存储介质
CN109981890B (zh) * 2019-02-26 2020-10-27 维沃移动通信有限公司 一种提醒任务处理方法、终端及计算机可读存储介质

Also Published As

Publication number Publication date
CN109981890A (zh) 2019-07-05
US20210385323A1 (en) 2021-12-09
US11775625B2 (en) 2023-10-03
CN109981890B (zh) 2020-10-27
EP3934217A1 (en) 2022-01-05
WO2020173283A1 (zh) 2020-09-03
EP3934217A4 (en) 2022-04-13
EP3934217B1 (en) 2023-07-12

Similar Documents

Publication Publication Date Title
ES2831005T3 (es) Procedimiento y dispositivo para mostrar información de notificación
CN110689460B (zh) 基于区块链的交通事故数据处理方法、装置、设备及介质
ES2945065T3 (es) Método para abrir rápidamente una aplicación o función de la aplicación y terminal
WO2020156111A1 (zh) 界面显示方法及终端
EP3373184B1 (en) Indirect indications for applying display privacy filters
WO2021017763A1 (zh) 事件处理方法、终端设备及计算机可读存储介质
KR20150046766A (ko) 단말기의 잠금 해제 처리방법, 장치, 단말기 장치, 프로그램 및 기록매체
CN106326773B (zh) 一种照片加密管理的方法、装置及终端
US20230029683A1 (en) Authentication Method, Medium, and Electronic Device
CN106778175A (zh) 一种界面锁定方法、装置和终端设备
CN107437009A (zh) 权限控制方法及相关产品
US10706307B2 (en) Methods and devices for processing fingerprint information
ES2952255T3 (es) Método de procesamiento de tareas de alerta, terminal y medio de almacenamiento legible por ordenador
CN109547628A (zh) 镜像显示方法、装置及计算机可读存储介质
US20200342076A1 (en) Varying Computing Device Behavior For Different Authenticators
CN107861669A (zh) 一种用户系统的切换方法和移动终端
WO2020199987A1 (zh) 信息显示方法及移动终端
US10416778B2 (en) Mobile terminal and control method therefor
CN108494786A (zh) 一种车辆应急提醒方法、服务器和移动终端
CN110209331A (zh) 信息提示方法及终端
CN108459814A (zh) 应用启动方法、移动终端以及计算机可读存储介质
CN108710806A (zh) 一种终端解锁方法、移动终端
CN109753776B (zh) 一种信息处理的方法、装置以及移动终端
KR101613130B1 (ko) 다중 스마트폰 및 그 제어방법
CN110781488A (zh) 密码提示方法和终端设备