ES2947297T3 - Método y dispositivo de control táctil - Google Patents

Método y dispositivo de control táctil Download PDF

Info

Publication number
ES2947297T3
ES2947297T3 ES17931613T ES17931613T ES2947297T3 ES 2947297 T3 ES2947297 T3 ES 2947297T3 ES 17931613 T ES17931613 T ES 17931613T ES 17931613 T ES17931613 T ES 17931613T ES 2947297 T3 ES2947297 T3 ES 2947297T3
Authority
ES
Spain
Prior art keywords
touch
touch operation
application
layer
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17931613T
Other languages
English (en)
Inventor
Jiang Rui
Zhubiao Xue
Bo Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Application granted granted Critical
Publication of ES2947297T3 publication Critical patent/ES2947297T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Abstract

Un método y dispositivo de control táctil, relacionado con el campo técnico de las comunicaciones. El método comprende: (S601) obtener por un terminal una primera entrada de operación táctil por parte de un usuario en una pantalla táctil; y (S602, S603, S604) cuando la primera operación táctil actúa sobre una primera área predeterminada en una interfaz objetivo, mapear por el terminal la primera operación táctil a una segunda operación táctil, de modo que una aplicación objetivo responda a la segunda operación táctil, en el que la interfaz de destino es cualquier interfaz que cubra la primera área preestablecida, siendo presentada la interfaz por la aplicación de destino, y en el que la aplicación de destino se ejecuta en primer plano. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método y dispositivo de control táctil
Sector técnico
Las implementaciones de esta solicitud están relacionadas con el sector de las tecnologías de la comunicación y, en particular, con un método y un aparato de control táctil.
Antecedentes
Actualmente, diversos terminales (por ejemplo, un teléfono móvil y una tableta) usan, en general, una pantalla táctil como aparato de entrada, lo que mejora en gran medida la eficiencia de la entrada y la operación de un usuario. En general, los parámetros de la pantalla táctil, tales como la sensibilidad táctil y los eventos de respuesta para diferentes acciones táctiles, se establecen antes de la entrega de la pantalla táctil (o del terminal).
Sin embargo, en diferentes áreas táctiles en diferentes planteamientos de aplicación, el usuario suele imponer diferentes requisitos de respuesta a los parámetros de la pantalla táctil, tales como la sensibilidad táctil. Por ejemplo, generalmente se requiere un accionamiento refinado para copiar información de texto en una página web, y se requiere una experiencia de control comparativamente rápida para controlar la ejecución de funciones en un juego de control. Obviamente, un parámetro fijo que se establece antes de la entrega no puede cumplir con un requisito táctil del usuario. Esto reduce la eficiencia de la entrada y la salida del terminal.
El documento US 2013/0139100 está relacionado con un aparato de procesamiento de información, el método de control del mismo y el medio de almacenamiento.
Compendio
Las implementaciones de esta solicitud dan a conocer un método de control táctil y un aparato para implementar un control refinado y personalizado en una pantalla táctil, y mejorar la eficiencia de la entrada y la salida de un terminal.
La invención ha sido definida en las reivindicaciones independientes. Otras características técnicas específicas han sido definidas en las reivindicaciones dependientes.
Según ciertos principios dados a conocer en esta solicitud, el usuario introduce la primera operación táctil en la pantalla táctil, pero basándose en una relación de asignación preestablecida por el usuario, la aplicación de objetivo que se ejecuta en el terminal finalmente responde al usuario con la segunda operación táctil. Esto implementa un control táctil refinado y personalizado en la pantalla táctil y mejora la eficiencia de entrada y salida del terminal.
Según ciertos principios dados a conocer en esta solicitud, la aplicación de objetivo puede proporcionar una salida visual correspondiente para el usuario basándose en los valores de las coordenadas modificados del punto de contacto.
Según ciertos principios dados a conocer en esta solicitud, el usuario puede implementar un efecto de operación relativamente grande en el área preestablecida realizando una operación relativamente pequeña. Alternativamente, el usuario puede implementar un efecto de operación relativamente pequeño en el área preestablecida realizando una operación relativamente grande. Esto implementa un efecto personalizado de una sensibilidad táctil en el área preestablecida.
Por ejemplo, aumentar o disminuir, por parte del terminal, los valores de las coordenadas del punto de contacto en la primera operación táctil basándose en el parámetro de asignación de coordenadas incluye: multiplicar, por parte del terminal, los valores de las coordenadas del punto de contacto en la primera operación táctil por el parámetro de asignación de coordenadas, donde el parámetro de asignación de coordenadas es mayor que 1 o menor que 1.
Según ciertos principios dados a conocer en esta solicitud, se evita el problema de que una aplicación no puede responder correctamente a la primera operación táctil debido a que la coordenada modificada excede un área de control de operación correspondiente a la primera operación táctil.
Según ciertos principios dados a conocer en esta solicitud, antes de que el primer evento táctil generado por la primera operación táctil sea notificado a la aplicación de objetivo, el segundo evento táctil generado cuando el usuario realiza la segunda operación táctil puede modificarse según la regla de asignación táctil, y se notifica a la aplicación de objetivo. En este caso, la aplicación de objetivo puede presentar, basándose en el segundo evento táctil, un efecto de respuesta correspondiente a la segunda operación táctil, para implementar una función personalizada de personalización de la operación táctil en el área preestablecida.
Según ciertos principios dados a conocer en esta solicitud, el terminal puede notificar, a la aplicación de objetivo, basándose en un procedimiento normal, el primer evento táctil generado por la primera operación táctil. Después de determinar, en función del primer evento táctil, una operación específica (es decir, la primera operación táctil) realizada por el usuario, la aplicación de objetivo puede invocar, según la regla de asignación táctil, una función correspondiente a la segunda operación táctil para implementar una función de aplicación correspondiente a la segunda operación táctil.
Por ejemplo, en ejemplos útiles para comprender la invención reivindicada, la regla de asignación táctil se puede usar para indicar que se asigne una operación táctil a una operación de doble pulsación, o se puede usar para indicar que se asigne una operación de tocar y mantener presionado a una operación táctil continua.
Breve descripción de los dibujos
La figura 1 es un diagrama 1 estructural, esquemático, de un terminal, según una implementación de esta solicitud; la figura 2 es un diagrama 1, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 3 es un diagrama arquitectónico 1, esquemático, de un sistema Android, según una implementación de esta solicitud;
la figura 4 es un diagrama arquitectónico 2, esquemático ,de un sistema Android, según una implementación de esta solicitud;
la figura 5 es un diagrama de flujo 1, esquemático, de un método de control táctil, según una implementación de esta solicitud;
la figura 6 es un diagrama 2, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 7A es un diagrama 3, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 7B es un diagrama 4, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 8 es un diagrama 5, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 9 es un diagrama 6, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 10 es un diagrama 7, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 11 es un diagrama 8, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 12 es un diagrama 9, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 13 es un diagrama 10, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 14 es un diagrama 11, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 15 es un diagrama 12, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 16 es un diagrama de interacción esquemático de un método de control táctil, según una implementación de esta solicitud;
la figura 17 es un diagrama de flujo 2, esquemático, de un método de control táctil, según una implementación de esta solicitud;
la figura 18 es un diagrama 13, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 19 es un diagrama 14, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 20 es un diagrama 15, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 21 es un diagrama 16, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 22 es un diagrama 17, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 23 es un diagrama 18, esquemático, de un planteamiento de aplicación de un método de control táctil, según una implementación de esta solicitud;
la figura 24 es un diagrama estructural 2, esquemático, de un terminal, según una implementación de esta solicitud; y
la figura 25 es un diagrama estructural 3, esquemático, de un terminal, según una implementación de esta solicitud.
Descripción de implementaciones
Para hacer más claros los objetivos, las soluciones técnicas y las ventajas de esta invención, lo siguiente describe adicionalmente, en detalle, diversas implementaciones, con referencia a los dibujos adjuntos. Las implementaciones descritas a continuación no se reivindican todas, se incluyen para ayudar a comprender el contexto de la invención. Si bien la descripción se refiere a diversas implementaciones, las realizaciones de la invención son aquellas que comprenden al menos todas las características de una reivindicación independiente. Cualquier implementación que no esté dentro del alcance de las reivindicaciones no forma parte de la invención, sino que se incluye como un ejemplo ilustrativo que es útil para comprender la invención.
Cuando a continuación se describe que una primera operación de deslizamiento se asigna mediante una regla de asignación táctil en una segunda operación de deslizamiento, entonces se debe entender que dicha regla de asignación táctil corresponde a una realización de la invención reivindicada, mientras que para los pasajes proporcionados a continuación en los que se describe que otras primeras operaciones táctiles se asignan mediante una regla de asignación de pulsación a otras segundas operaciones táctiles, como una pulsación que se asigna a una doble pulsación y a una pulsación y mantener que se asigna a una pulsación continua, entonces la descripción en cada uno de dichos pasajes debe ser interpretada como correspondiente a un ejemplo útil para comprender la invención reivindicada.
Los siguientes términos “primero” y “segundo” tienen un propósito meramente descriptivo y no deben entenderse como una indicación o implicación de importancia relativa o una indicación implícita del número de características técnicas indicadas. Por lo tanto, una característica limitada por “primera” o “segunda” puede incluir explícita o implícitamente una o más características. En la descripción de las implementaciones de esta solicitud, a menos que se indique lo contrario, “una pluralidad de” significa dos o más de dos.
Un método de control táctil dado a conocer en las implementaciones de esta solicitud se puede aplicar a cualquier terminal que tenga una pantalla táctil, tal como un teléfono móvil, un dispositivo portátil, un dispositivo de realidad aumentada (Augmented Reality, AR) / dispositivo de realidad virtual (Virtual Reality, VR), una tableta, un ordenador portátil, un ordenador personal ultramóvil (Ultra-Mobile Personal Computer, UMPC), un ordenador portátil pequeño (netbook) o un asistente digital personal (Personal Digital Assistant, PDA). Ciertamente, la forma específica del terminal no está limitada en las siguientes implementaciones.
Tal como se muestra en la figura 1, el terminal en las implementaciones de esta solicitud puede ser un teléfono móvil 100. El teléfono móvil 100 se usa como ejemplo a continuación para describir en detalle las implementaciones. Debe entenderse que el teléfono móvil 100 mostrado en la figura es simplemente un ejemplo del terminal, y el teléfono móvil 100 puede tener más o menos componentes que los que se muestran en la figura, o puede combinar dos o más componentes, o puede tener diferentes configuraciones de componentes.
Tal como se muestra en la figura 1, el teléfono móvil 100 puede incluir específicamente componentes tales como un procesador 101, un circuito de radiofrecuencia (RadioFrequency, RF) 102, una memoria 103, una pantalla táctil 104, un aparato de Bluetooth 105, uno o más sensores 106, una fidelidad inalámbrica (Wireless-Fidelity, Wi-Fi) 107, un aparato de posicionamiento 108, un circuito de audio 109, una interfaz periférica 110 y un sistema 111 de suministro de energía. Estos componentes pueden comunicarse entre sí mediante uno o más buses de comunicación o líneas de señal (no mostradas en la figura 1). Un experto en la materia puede entender que una estructura de hardware que se muestra en la figura 1 no constituye una limitación en el teléfono móvil, y el teléfono móvil 100 puede incluir más o menos componentes que los que se muestran en la figura, o puede combinar algunos componentes, o puede tener diferentes disposiciones de componentes.
A continuación se describen en detalle los componentes del teléfono móvil 100 con referencia a la figura 1.
El procesador 101 es un centro de control del teléfono móvil 100. El procesador 101 está conectado a partes del teléfono móvil 100 mediante diversas interfaces y líneas, ejecuta un programa de aplicación almacenado en la memoria 103 e invoca datos almacenados en la memoria 103, para realizar diversas funciones del teléfono móvil 100 y el procesamiento de datos. En algunas implementaciones, el procesador 101 puede incluir una o más unidades de procesamiento. Por ejemplo, el procesador 101 puede ser un chip Kirin 960 fabricado por Huawei. En algunas implementaciones de esta solicitud, el procesador 101 puede incluir, además, un chip de verificación de huellas dactilares, configurado para verificar una huella dactilar recogida.
El circuito de radiofrecuencia 102 puede ser configurado para recibir y enviar una señal de radio en un proceso de recepción y envío de información o en un proceso de llamada. En particular, después de recibir datos de enlace descendente desde una estación base, el circuito de radiofrecuencia 102 puede enviar los datos de enlace descendente al procesador 101 para su procesamiento y enviar datos de enlace ascendente relacionados a la estación base. En general, el circuito de radiofrecuencia incluye pero no está limitado a, una antena, al menos un amplificador, un transceptor, un acoplador, un amplificador de bajo ruido, un duplexador y similares. Adicionalmente, el circuito de radiofrecuencia 102 puede comunicarse, además, con otro dispositivo, por medio de comunicación inalámbrica. La comunicación inalámbrica puede utilizar cualquier estándar o protocolo de comunicaciones, incluidos, entre otros, el sistema global para comunicaciones móviles, un servicio general de radio por paquetes, acceso múltiple por división de código, acceso múltiple por división de código de banda ancha, evolución a largo plazo, un correo electrónico, un servicio de mensajes SMS , y similares.
La memoria 103 está configurada para almacenar el programa de la aplicación y los datos. El procesador 101 ejecuta el programa de la aplicación y los datos almacenados en la memoria 103, para realizar diversas funciones del teléfono móvil 100 y procesamiento de datos. La memoria 103 incluye, principalmente, un área de almacenamiento de programas y un área de almacenamiento de datos. El área de almacenamiento de programas puede almacenar un sistema operativo y un programa de aplicación requerido por al menos una función (por ejemplo, una función de reproducción de sonido o una función de reproducción de imágenes). El área de almacenamiento de datos puede almacenar datos (por ejemplo, datos de audio o una libreta de direcciones) creados cuando se usa el teléfono móvil 100. Además, la memoria 103 puede incluir una memoria de acceso aleatorio de alta velocidad (Random Access Memory, RAM), o puede incluir una memoria no volátil, tal como un dispositivo de almacenamiento de disco magnético, un dispositivo de memoria flash u otro dispositivo de almacenamiento volátil de estado sólido. La memoria 103 puede almacenar diversos sistemas operativos, tales como un sistema operativo il)S®, desarrollado por Apple y un sistema operativo Android®, desarrollado por Google. La memoria 103 puede ser independiente, y está conectada al procesador 101 mediante el bus de comunicaciones; o la memoria 103 puede estar integrada con el procesador 101.
La pantalla táctil 104 puede incluir específicamente un panel táctil 104-1 y una pantalla 104-2.
El panel táctil 104-1 puede recoger una operación táctil realizada por un usuario del teléfono móvil 100 en o cerca del panel táctil 104-1 (por ejemplo, una operación realizada por el usuario en el panel táctil 104-1 o cerca del panel táctil 104-1 mediante el uso de cualquier objeto adecuado, tal como un dedo o un lápiz), y enviar la información táctil recogida a otro componente (tal como el procesador 101). La operación táctil realizada por el usuario cerca del panel táctil 104-1 puede denominarse pulsación flotante. La pulsación flotante puede significar que el usuario no necesita tocar directamente el panel táctil para seleccionar, mover o arrastrar un objeto (por ejemplo, un icono), y el usuario solo necesita estar cerca del terminal para ejecutar una función esperada. Además, el panel táctil 104-1 puede implementarse en una pluralidad de tipos tales como un tipo resistivo, un tipo capacitivo, un tipo infrarrojo, un tipo de ondas acústicas superficiales.
La pantalla (también puede denominarse pantalla de visualización) 104-2 puede configurarse para mostrar información introducida por el usuario o información proporcionada para el usuario, y diversos menús del teléfono móvil 100. La pantalla 104-2 puede configurarse en forma de una pantalla de cristal líquido, un diodo orgánico emisor de luz o similar. El panel táctil 104-1 puede cubrir la pantalla 104-2. Después de detectar la operación táctil realizada en o cerca del panel táctil 104-1, el panel táctil 104-1 transfiere la operación táctil al procesador 101 para determinar un tipo de operación táctil. Luego, el procesador 101 puede proporcionar una salida visual correspondiente en la pantalla 104-2 basándose en el tipo de operación táctil. Aunque en la figura 1, el panel táctil 104-1 y la pantalla de visualización 104­ 2 se utilizan como dos componentes independientes para implementar funciones de entrada y salida del teléfono móvil 100. Sin embargo, en algunas implementaciones, el panel táctil 104-1 y la pantalla de visualización 104-2 puede estar integradas para implementar las funciones de entrada y salida del teléfono móvil 100.
En esta implementación de esta solicitud, el usuario puede establecer reglas de asignación táctil para diferentes áreas táctiles en la pantalla táctil 104 en diferentes planteamientos de aplicación. Por ejemplo, tal como se muestra en (a) en la figura 2, cuando se está ejecutando una aplicación A, la sensibilidad táctil de un área táctil rectangular 21 a en el centro de la pantalla táctil 104 puede establecerse al doble de la de otra área. Alternativamente, tal como se muestra en (b) en la figura 2, cuando se ejecuta una aplicación B, se puede personalizar un evento de respuesta para una acción táctil (por ejemplo, una acción táctil de tocar o una acción táctil de tocar y mantener) en un área táctil 22b.
Por lo tanto, en diferentes planteamientos de aplicación, se puede obtener un área táctil personalizada por el usuario dividiendo la pantalla táctil 104 en áreas lógicas. Además, el usuario puede configurar, en el área táctil personalizada, una regla de asignación táctil que se ajuste a un planteamiento de aplicación actual y a un hábito de operación del usuario, de modo que el usuario obtenga posteriormente una sensación táctil personalizada en el área táctil personalizada. Esto implementa un control refinado y personalizado en la pantalla táctil 104 y proporciona una experiencia táctil más rica para el terminal, incluida la pantalla táctil 104.
La sensibilidad táctil se puede usar para reflejar una relación de la distancia de movimiento de un objeto de visualización generado cuando el terminal responde a una operación táctil específica en la pantalla táctil 104 a una distancia de deslizamiento real de un dedo en la pantalla táctil 104 en la operación táctil. Una sensibilidad táctil más alta indica una relación más grande y una sensibilidad táctil más baja indica una relación más pequeña. Para algunas operaciones refinadas, tal como una operación de retoque de imágenes y una operación de marcado de texto, una sensibilidad táctil relativamente baja puede mejorar la precisión de estas operaciones. Sin embargo, para algunas operaciones con un rendimiento en tiempo real relativamente grande, tal como operaciones de ataque y ejecución en un juego, una sensibilidad táctil relativamente alta puede mejorar la velocidad de estas operaciones y la experiencia del usuario.
El evento de respuesta para la acción táctil es una operación táctil específica correspondiente a un evento táctil generado por el teléfono móvil 100 cuando el teléfono móvil 100 recibe una acción táctil introducida por el usuario en una ubicación específica en la pantalla táctil 104. Por ejemplo, cuando el usuario toca un punto C en la pantalla táctil 104, el teléfono móvil 100 puede generar dos eventos táctiles: un evento de acción hacia abajo y un evento de acción hacia arriba en el punto C. Después de que el teléfono móvil 100 notifica los dos eventos táctiles a una aplicación correspondiente, el aplicación puede determinar, mediante la invocación de una función de la librería que está preestablecida en el teléfono móvil 100, que los dos eventos táctiles corresponden a una operación táctil, y luego responder a la operación táctil para implementar una función de aplicación de la operación táctil en el punto C.
Ciertamente, además de la sensibilidad táctil y del evento de respuesta para la acción táctil, la regla de asignación táctil puede incluir otros parámetros utilizados para ajustar el hábito de pulsación del usuario, por ejemplo, precisión de la pulsación, detección de la presión táctil y duración de la pulsación. Esto no está limitado en esta implementación de esta solicitud.
Puede entenderse que la pantalla táctil 104 se forma apilando una pluralidad de capas de materiales. En esta implementación de esta solicitud, solo se muestran el panel táctil (capa) y la pantalla de visualización (capa), y no se registra otra capa en esta implementación de esta solicitud. Además, el panel táctil 104-1 puede estar dispuesto en el lado delantero del teléfono móvil 100 en forma de panel completo, y la pantalla de visualización 104-2 también puede estar dispuesta en el lado delantero del teléfono móvil 100 en forma de panel completo. De esta manera, se puede implementar una estructura sin marco para la parte delantera del teléfono móvil.
El teléfono móvil 100 puede incluir, además, el aparato de Bluetooth 105, configurado para implementar el intercambio de datos entre el teléfono móvil 100 y otro terminal (por ejemplo, un teléfono móvil o un reloj inteligente) a una distancia corta del teléfono móvil 100. En esta implementación de esta solicitud, el aparato de Bluetooth puede ser un circuito integrado, un chip de Bluetooth o similar.
El teléfono móvil 100 puede incluir, además, al menos un sensor 106, tal como un dispositivo de recogida de huellas dactilares 112, un sensor de luz, un sensor de movimiento y otro sensor. Específicamente, el dispositivo de recogida de huellas dactilares 112 puede configurarse en la parte posterior del teléfono móvil 100 (por ejemplo, en la parte inferior de una cámara orientada hacia atrás), o el dispositivo de recogida de huellas dactilares 112 puede configurarse en la parte delantera del teléfono móvil 100 (por ejemplo, en una parte inferior de la pantalla táctil 104). Como ejemplo adicional, el dispositivo de recogida de huellas dactilares 112 puede estar dispuesto en la pantalla táctil 104 para implementar una función de reconocimiento de huellas dactilares. En otras palabras, el dispositivo de recogida de huellas dactilares 112 puede estar integrado con la pantalla táctil 104 para implementar la función de reconocimiento de huellas dactilares del teléfono móvil 100. El sensor de luz puede incluir un sensor de luz ambiental y un sensor de proximidad. El sensor de luz ambiental puede ajustar la luminancia de la pantalla táctil 104 basándose en la luminancia de la luz ambiental, y el sensor de proximidad puede apagar la pantalla cuando el teléfono móvil 100 es acercado a un αdo. Como un tipo de sensor de movimiento, un sensor de acelerómetro puede detectar valores de aceleración en diversas direcciones (habitualmente en tres ejes). El sensor del acelerómetro puede detectar un valor y una dirección de la gravedad cuando el sensor del acelerómetro está estacionario, y puede aplicarse a una aplicación para reconocer la postura de un teléfono móvil (por ejemplo, cambiar entre una pantalla horizontal y una pantalla vertical, un juego relacionado, y calibración de postura del magnetómetro), una función relacionada con el reconocimiento de vibraciones (tal como un podómetro y un golpe), y similares. Otros sensores tales como un giroscopio, un barómetro, un higrómetro, un termómetro y un sensor de infrarrojos pueden configurarse adicionalmente en el teléfono móvil 100. Los detalles no se describen en el presente documento.
El aparato de Wi-Fi 107 está configurado para proporcionar al teléfono móvil 100 acceso a la red que cumple con un protocolo estándar relacionado con la Wi-Fi. El teléfono móvil 100 puede acceder a un punto de acceso de Wi-Fi utilizando el aparato de Wi-Fi 107, para ayudar al usuario a recibir y enviar un correo electrónico, navegar por una página web, acceder a medios de transmisión y similares. El aparato de Wi-Fi 107 proporciona acceso inalámbrico a Internet de banda ancha para el usuario. En algunas otras implementaciones, el aparato de Wi-Fi 107 puede ser utilizado como un punto de acceso inalámbrico de Wi-Fi y puede proporcionar acceso a la red de Wi-Fi para otro terminal.
El aparato de posicionamiento 108 está configurado para proporcionar una ubicación geográfica para el teléfono móvil 100. Puede entenderse que el aparato de posicionamiento 108 puede ser específicamente un receptor de un sistema de posicionamiento tal como un sistema de posicionamiento global (Global Positioning System, GPS), un sistema de navegación por satélite BeiDou, o un GLONASS ruso. Después de recibir la ubicación geográfica enviada por el sistema de posicionamiento, el aparato de posicionamiento 108 envía la información al procesador 101 para su procesamiento, o envía la información a la memoria 103 para su almacenamiento. En algunas otras implementaciones, el aparato de posicionamiento 108 puede ser alternativamente un receptor de un sistema de posicionamiento global asistido (Assisted GPS, AGPS). El sistema AGPS sirve como un servidor asistido para ayudar al aparato de posicionamiento 108 a completar los servicios de determinación de distancia y posicionamiento. En este caso, el servidor de posicionamiento asistido se comunica con el terminal, como el aparato de posicionamiento 108 (es decir, un receptor GPS) del teléfono móvil 100 a través de una red de comunicaciones inalámbricas, para proporcionar asistencia de posicionamiento. En algunas otras implementaciones, el aparato de posicionamiento 108 puede ser alternativamente una tecnología de posicionamiento que se basa en un punto de acceso de Wi-Fi. Cada punto de acceso de Wi-Fi tiene una sola dirección de control de acceso a medios a nivel mundial (Media Access Control, MAC), y el terminal puede escanear y recoger una señal de transmisión de un punto de acceso de Wi-Fi cercano cuando el terminal habilita la Wi-Fi. Por lo tanto, se puede obtener una dirección de MAC que transmite el punto de acceso de Wi-Fi. El terminal envía, a un servidor de ubicación a través de la red de comunicaciones inalámbricas, datos (por ejemplo, la dirección de MAC) que pueden identificar el punto de acceso de Wi-Fi. El servidor de ubicación obtiene una ubicación geográfica de cada punto de acceso de Wi-Fi a través de la recuperación, calcula una ubicación geográfica del terminal y envía la ubicación geográfica al aparato de posicionamiento 108 del terminal con referencia a la intensidad de una señal de transmisión de Wi-Fi.
El circuito de audio 109, un altavoz 113 y un micrófono 114 pueden proporcionar una interfaz de audio entre el usuario y el teléfono móvil 100. El circuito de audio 109 puede convertir los datos de audio recibidos en una señal eléctrica y transmitir la señal eléctrica al altavoz 113, y el altavoz 113 convierte la señal eléctrica en una señal de sonido para su salida. Además, el micrófono 114 convierte una señal de sonido recogida en una señal eléctrica, y el circuito de audio 109 recibe la señal eléctrica, convierte la señal eléctrica en datos de audio y envía los datos de audio al circuito de RF 102, para enviar los datos de audio, por ejemplo, a otro teléfono móvil, o envía los datos de audio a la memoria 103 para su posterior procesamiento.
La interfaz periférica 110 está configurada para proporcionar diversas interfaces para un dispositivo externo de entrada y salida (por ejemplo, un teclado, un ratón, una pantalla externa, una memoria externa o una tarjeta de módulo de identificación de abonado). Por ejemplo, el terminal se conecta al ratón a través de una interfaz de bus de serie universal (Universal Serial Bus, USB). Mediante el uso de un contacto metálico en una ranura para tarjeta de una tarjeta del módulo de identificación de abonado (Subscriber Identification Module, SIM) proporcionada por un operador de telecomunicaciones, el terminal se conecta a la tarjeta del módulo de identificación de abonado. La interfaz periférica 110 puede configurarse para acoplar el dispositivo periférico externo de entrada y salida al procesador 101 y la memoria 103.
El teléfono móvil 100 puede incluir, además, el aparato de suministro de energía 111 (por ejemplo, una batería y un chip de gestión de la energía) que suministra energía a los componentes. La batería se puede conectar de manera lógica al procesador 101 mediante el uso del chip de gestión de la energía, de modo que funciones tales como carga, descarga y administración del consumo de energía se implementen mediante el uso del aparato de suministro de energía 111.
Aunque no se muestra en la figura 1, el teléfono móvil 100 puede incluir, además, una cámara (una cámara orientada hacia adelante y/o la cámara orientada hacia atrás), una linterna, un aparato de microproyección, un aparato de comunicación de campo cercano (Near Field Communication, NFC), o similares. Los detalles no se describen en el presente documento.
Además, el teléfono móvil 100 puede ejecutar un sistema operativo tal como un sistema operativo Android o un sistema operativo il)S. El sistema operativo Android se utiliza como ejemplo. Tal como se muestra en la figura 3, el sistema operativo Android se puede dividir en cuatro capas: una capa 201 de aplicaciones (es decir, una capa de APP), una capa 202 de marco de aplicaciones (es decir, una capa de marco), una capa 203 de librería de tiempos de ejecución del sistema (es decir, una capa de librería), y una capa 204 del núcleo de Linux en orden descendente, donde la capa de aplicaciones, la capa de marco y la capa de núcleo se consideran características esenciales en correspondencia con la invención reivindicada.
La capa 204 de núcleo de Linux puede configurarse para controlar funciones del teléfono móvil 100, tal como seguridad (Security), gestión de memoria (Memory Management), gestión de programas (Process Management), pila de red (Network Stack) y modelo de controlador (Driver Model). La capa 204 del núcleo de Linux también se utiliza como una capa de abstracción entre el hardware (por ejemplo, una CPU, una tarjeta de interfaz de red y una memoria) y una pila de software, y puede ocultar detalles específicos del hardware para proporcionar un servicio unificado para las capas superiores (la capa 203 de librería de tiempos de ejecución del sistema, la capa 202 de marco de aplicaciones y la capa 201 de aplicaciones).
La capa 203 de librería de tiempos de ejecución del sistema incluye algunas librerías C/C++, tal como una librería multimedia, una librería C del sistema y una librería de gestión de visualización (Surface Manager). Estas librerías pueden ser utilizadas por diferentes componentes en el sistema Android, y la capa 203 de librería de tiempos de ejecución del sistema puede proporcionar un servicio para un desarrollador mediante el uso de la capa 202 de marco.
La capa 202 de marco proporciona al desarrollador un marco de API que se puede usar para acceder completamente a un programa de aplicación. Específicamente, la capa 202 de marco proporciona una gran cantidad de API para desarrollar un programa de aplicación, y se puede construir una APP que cumpla con un requisito de servicio relacionado invocando una API correspondiente.
La capa 201 de aplicaciones incluye principalmente una APP compilada en un lenguaje java. Cuando opera una interfaz de operación de la aplicación, un usuario interactúa con la capa 203 de librería de tiempos de ejecución del sistema o la capa 204 del núcleo de Linux invocando una API relacionada en la capa 202 de marco, para implementar una función correspondiente a la interfaz de operación.
En esta implementación de esta solicitud, un proceso en el que una aplicación (por ejemplo, una aplicación A) que se ejecuta en la capa 201 de aplicaciones obtiene una operación táctil introducida por el usuario en la pantalla táctil 104, es un proceso de distribución de una capa de mensajes capa por capa en orden ascendente.
Específicamente, tal como se muestra en la figura 4, cuando un dedo del usuario toca la pantalla táctil 104 en una capa de hardware, la pantalla táctil 104 obtiene información relacionada (por ejemplo, coordenadas de un punto táctil) de la operación táctil. Además, la pantalla táctil 104 puede informar, a la capa 204 del núcleo Linux en forma de interrupción mediante el uso de un controlador correspondiente, un evento táctil original generado por la acción táctil. La capa 202 de marco incluye una capa 202a de bus de eventos que se comunica con una capa inferior y una capa 202b de distribución de lectura de entrada que se comunica con una capa superior. Después de obtener el evento táctil original, la capa 204 del núcleo de Linux puede realizar una operación de encapsulación, tal como la conversión del sistema de coordenadas en el evento táctil, para generar un evento táctil avanzado (por ejemplo, un evento de acción hacia abajo, un evento de movimiento de acción y un evento de acción hacia arriba) que puede ser leído por la capa superior, y envía el evento táctil avanzado a la capa 202a de bus de eventos. A continuación, la capa 202a de bus de eventos distribuye el evento táctil avanzado a la capa 202b de distribución de lectura de entrada.
Finalmente, la capa 202b de distribución de lectura de entrada notifica el evento táctil avanzado a un proceso de aplicación de la aplicación A que se ejecuta en la capa 201 de aplicaciones. En este caso, el proceso de aplicación de la aplicación A puede invocar una función de librería C/C++ en la capa 203 de librería de tiempos de ejecución del sistema para determinar una operación específica correspondiente al evento táctil avanzado, por ejemplo, una operación táctil. Además, una función de librería en la capa 203 de librería de tiempos de ejecución del sistema puede devolver una función de devolución de llamada escrita por la aplicación A para la operación táctil con anticipación, y la función de devolución de llamada especifica una función ejecutada por la aplicación A para responder a la operación táctil del usuario. Por ejemplo, la función de devolución de llamada puede ser una función de clicar, de modo que la aplicación A ejecute una función de devolución de llamada correspondiente a la operación táctil en una ubicación del punto de contacto. Por ejemplo, la función de clicar escrita por la aplicación A para la operación táctil en el punto de contacto se usa para implementar una función de reproducción de vídeo.
Correspondiendo a la obtención de la operación táctil, un proceso en el que la aplicación A en la capa 201 de aplicaciones implementa una función indicada por la función de devolución de llamada es un proceso en el que la entrega se realiza capa por capa en orden descendente y, finalmente, se ejecuta la instrucción de control mediante un hardware relacionado.
Se utiliza un ejemplo de implementación de la función de reproducción de vídeo anterior cuando el proceso de aplicación de la aplicación A en la capa 201 de aplicaciones determina, basándose en una operación táctil notificada por la capa inferior de que es necesario implementar la función de reproducción de vídeo, que se puede generar una instrucción de reproducción de vídeo y enviarla a la capa 202b de distribución de lectura de entrada y a la capa 202a de bus de eventos en la capa 202 de marco capa por capa; a continuación, la capa 202a de bus de eventos envía la instrucción de reproducción de vídeo a la capa 204 del núcleo de Linux; y, finalmente la capa 204 del núcleo de Linux implementa una salida de reproducción de vídeo invocando hardware como un procesador, una memoria y la pantalla táctil 104 usando un controlador.
En esta implementación de esta solicitud, el usuario predefine, en la pantalla táctil 104, una regla de asignación táctil de un área táctil específica cuando la aplicación A se está ejecutando. Por lo tanto, después de que la capa 204 del núcleo de Linux obtiene la operación táctil notificada por la pantalla táctil 104, la capa 204 del núcleo de Linux (o la capa 202 del marco) del terminal puede determinar si la ubicación de un punto táctil en la operación táctil se encuentra dentro del área de la función táctil personalizada por el usuario. Si la ubicación del punto de contacto en la operación táctil se encuentra dentro del área táctil personalizada por el usuario, la información relacionada contenida en la operación táctil puede ser modificada según la regla de asignación táctil establecida por el usuario. Por ejemplo, el usuario predefine que una operación táctil en un área táctil 1 se asigne a una operación de doble pulsación. En este caso, cuando la operación táctil notificada por la pantalla táctil 104 es determinada por el terminal como la operación táctil que se encuentra dentro del área táctil 1, el terminal puede cambiar un evento de respuesta para la acción táctil, de la operación táctil a la operación de doble pulsación. Además, una función de devolución de llamada correspondiente a la operación de doble pulsación se vuelve a llamar a la aplicación que se ejecuta en la capa 201 de aplicaciones, para implementar un efecto de control táctil de la operación de doble pulsación. Esto implementa un control táctil refinado y personalizado en la pantalla táctil 104 y mejora la eficiencia de entrada del terminal.
A continuación se describe en detalle un método de control táctil dado a conocer en una implementación de esta solicitud con referencia a una implementación específica. Tal como se muestra en la figura 5, el método incluye las siguientes etapas.
5501. Un terminal obtiene una primera entrada de un usuario cuando ejecuta una aplicación de objetivo, donde la primera entrada se usa para activar el terminal para entrar en una interfaz de configuración de un área táctil personalizada.
La aplicación de objetivo puede ser cualquier aplicación instalada en el terminal, tal como una aplicación de vídeo, una aplicación de juegos o una aplicación de comunicación. Esto no está limitado en esta implementación de esta solicitud.
Una aplicación A de juego se usa como ejemplo. En un proceso en el que el terminal ejecuta la aplicación A, un control utilizado para personalizar un área táctil puede visualizarse en una interfaz de visualización de la aplicación A. Tal como se muestra en la figura 6, se puede mostrar un control 600 en una interfaz de inicio de sesión de la aplicación A, para solicitar al usuario que personalice las reglas de asignación táctil para diferentes áreas táctiles cuando la aplicación A se está ejecutando. Esto mejora la eficiencia de entrada y respuesta cuando la aplicación A se está ejecutando. Por lo tanto, cuando se detecta que el usuario pulsa el control 600, se obtiene la primera entrada del usuario.
Alternativamente, tal como se muestra en la figura 7A, se puede configurar una opción 700 “personalizar una regla de asignación táctil” en una interfaz de configuración de la aplicación A. Después de que el usuario pulsa la opción 700 “personalizar una regla de asignación táctil”, el usuario puede pulsar una opción “modificar una regla” para personalizar diferentes áreas táctiles y reglas de asignación táctil para diferentes áreas táctiles. En este caso, cuando se detecta que el usuario pulsa la opción “modificar una regla”, se obtiene la primera entrada del usuario.
Ciertamente, el usuario también puede proporcionar, en una interfaz de configuración de un sistema operativo del terminal, una entrada para configurar áreas táctiles personalizadas y reglas de asignación táctil para diferentes aplicaciones. Tal como se muestra en la figura 7B, el terminal proporciona una opción 701 “pulsación personalizada” en la interfaz de configuración. Después de habilitar la opción 701 “pulsación personalizada”, el usuario puede seleccionar establecer áreas táctiles personalizadas y reglas de asignación táctil para diferentes aplicaciones (por ejemplo, la aplicación A). La aplicación A se utiliza como ejemplo. Después de que el usuario selecciona una aplicación efectiva de la pulsación personalizada como la aplicación A, tal como se muestra en la figura 7B, se puede modificar un área táctil establecida (por ejemplo, un área táctil 1 y un área táctil 2 en la figura 7B). Después de que el usuario pulsa un botón 702 en el área táctil 1, se puede modificar el tamaño y la ubicación del área táctil, y una regla de asignación táctil para el área táctil 1. Ciertamente, el usuario también puede tocar un botón 703 para agregar un área táctil personalizada, para crear un área táctil nueva y una regla de asignación táctil. Esto no está limitado en esta implementación de esta solicitud.
Ciertamente, el usuario también puede introducir, en el terminal usando una voz o similar, la primera entrada utilizada para habilitar una regla de asignación táctil en una pantalla táctil personalizada. Esto no está limitado en esta implementación de esta solicitud.
5502. El terminal muestra una interfaz de configuración translúcida en una interfaz de visualización de la aplicación de objetivo.
En respuesta a la primera entrada del usuario, en la etapa S502, el terminal puede dibujar una capa de imagen translúcida en la interfaz de visualización de la aplicación de objetivo actual mediante la superposición, y mostrar la capa de imagen translúcida en la pantalla táctil del terminal como interfaz de configuración. En este caso, tal como se muestra en la figura 8, el terminal puede solicitar al usuario que dibuje un área táctil de objetivo personalizada en una interfaz de configuración 800. El usuario puede personalizar libremente un área táctil de objetivo requerida por el usuario y establecer una regla de asignación táctil que sea válida para el área táctil de objetivo en el área táctil de objetivo personalizada. Esto mejora el rendimiento de entrada y salida cuando se ejecuta la aplicación de objetivo.
5503. El terminal obtiene una segunda entrada del usuario en la interfaz de configuración, donde la segunda entrada incluye el área táctil de objetivo personalizada por el usuario en la pantalla táctil y una regla de asignación táctil de objetivo que se establece para el área táctil de objetivo.
En algunas implementaciones de esta solicitud, todavía tal como se muestra en la figura 8, el usuario puede dibujar un área táctil de objetivo 801 de un tamaño específico en cualquier ubicación en la interfaz de configuración 800 usando una plantilla de área 802 (por ejemplo, una plantilla rectangular, una plantilla triangular o una plantilla circular) que está preestablecida por el terminal. En este caso, el terminal puede registrar una ubicación y un tamaño específicos del área táctil de objetivo 801 en la pantalla táctil usando una función geométrica plana (por ejemplo, una función de área rectangular o una función de área circular) de la plantilla del área. Por ejemplo, tal como se muestra en la figura 8, el área táctil de objetivo 801 puede representarse como: Área 1 = f (p, r), donde p representa las coordenadas del centro de un círculo y r representa el radio de un círculo.
En algunas otras implementaciones de esta solicitud, tal como se muestra en la figura 9, el usuario también puede dibujar puntos límite del área táctil de objetivo en la interfaz de configuración 800 en un orden específico (por ejemplo, en el sentido de las agujas del reloj o en el sentido contrario a las agujas del reloj). Una línea que conecta estos puntos límite puede constituir un área táctil de objetivo 901. En este caso, el terminal puede registrar una ubicación y un tamaño específicos del área táctil de objetivo 901 en la pantalla táctil usando las coordenadas de los puntos límite. Por ejemplo, todavía tal como se muestra en la figura 9, el área táctil de objetivo 901 puede representarse como Área 2 {A, B, C, D y E}, donde A, B, C, D y E son coordenadas de cinco puntos límite del área táctil de objetivo 901 en un orden en el sentido de las agujas del reloj.
Además, después de personalizar el área táctil de objetivo en la interfaz de configuración 800, el usuario puede continuar configurando la regla de asignación táctil para el área táctil de objetivo. Por ejemplo, tal como se muestra en la figura 10, el usuario establece un área circular en una esquina inferior izquierda de una aplicación A de juego como el área táctil de objetivo 801. Después de registrar la ubicación y el tamaño del área táctil de objetivo 801, el terminal puede solicitar al usuario que modifique una regla de asignación de pulsación para el área táctil de objetivo 80, por ejemplo, una sensibilidad táctil 1001 del área táctil de objetivo 801 y un evento de respuesta 1002 para una acción táctil.
El terminal puede mostrar la sensibilidad táctil 1001 en forma de una barra de progreso en una interfaz de configuración actual. El usuario puede cambiar un progreso de la barra de progreso realizando una operación de arrastre, para modificar la sensibilidad táctil del área táctil de objetivo 801.
Aún tal como se muestra en la figura 10, se utiliza un ejemplo en el que la barra de progreso de la sensibilidad táctil 1001 oscila entre -100 y 100. Cuando el usuario establece la sensibilidad táctil 1001 en 0, indica que no es necesario modificar la sensibilidad táctil del área táctil de objetivo 801. En otras palabras, el terminal usa una sensibilidad táctil predeterminada del terminal cuando responde a la operación táctil realizada por el usuario en el área táctil de objetivo 801. En otras palabras, si el terminal (o la aplicación de objetivo) predefine que cuando el usuario desliza 1 cm en la pantalla táctil cada vez, se puede controlar un objeto de visualización correspondiente a la operación para que se mueva 1 metro. Por lo tanto, cuando el usuario establece la sensibilidad táctil 1001 en 0, y cuando el usuario desliza 1 cm en la pantalla táctil cada vez, el terminal sigue controlando el objeto de visualización correspondiente para que se mueva 1 metro cuando el terminal responde a la operación.
Cuando la sensibilidad táctil 1001 que establece el usuario es mayor que 0, indica que el usuario espera que la sensibilidad táctil en el área táctil de objetivo 801 sea mayor que un valor predeterminado actual. Por ejemplo, un valor de la sensibilidad táctil 1001 es 100. En este caso, por cada acción táctil de movimiento de 1 cm por parte del usuario en el área táctil de objetivo 801, el terminal puede controlar, en respuesta a la acción táctil, un objeto de visualización correspondiente para que se mueva 2 metros, en otras palabras, responder a la acción táctil del usuario en el área táctil de objetivo 801 usando una distancia dos veces la sensibilidad táctil predeterminada. Por ejemplo, tal como se muestra en la figura 11, cuando el usuario se mueve desde un punto A (0, 0) a un punto B (1, 1) en el área táctil de objetivo 801, basándose en el ejemplo de que la sensibilidad táctil establecida por el usuario es 100, el terminal puede multiplicar las coordenadas horizontales y las coordenadas verticales del punto A y el punto B por 2, para obtener A (0, 0) y B’ (2, 2), y notificar los puntos de coordenadas modificados a la aplicación de objetivo, de modo que la aplicación de objetivo considere que el usuario se mueve de A (0, 0) a B’ (2, 2), para responder a la acción táctil actual del usuario con el doble de distancia.
En consecuencia, cuando la sensibilidad táctil 1001 establecida por el usuario es inferior a 0, indica que el usuario espera que la sensibilidad táctil en el área táctil de objetivo 801 sea inferior al valor predeterminado actual. Por ejemplo, el valor de la sensibilidad táctil 1001 es -100. En este caso, por cada acción táctil de movimiento de 1 cm por parte del usuario en el área táctil de objetivo 801, el terminal puede controlar, en respuesta a la acción táctil, un objeto de visualización correspondiente para que se mueva 0,5 metros, en otras palabras, responder a la acción táctil del usuario en el área táctil de objetivo 801 usando una distancia de la mitad de la sensibilidad táctil predeterminada. Aún tal como se muestra en la figura 11, cuando el usuario se mueve desde el punto A (0, 0) al punto B (1, 1) en el área táctil de objetivo 801, basándose en el ejemplo de que la sensibilidad táctil establecida por el usuario es -100, el terminal puede multiplicar las coordenadas horizontales y las coordenadas verticales del punto A y el punto B por 0,5, para obtener A (0, 0) y B” (0,5, 0,5), y notificar los puntos de coordenadas modificados a la aplicación de objetivo, de modo que la aplicación de objetivo considere que el usuario se mueve de A (0, 0) a B” (0,5, 0,5), para responder a la acción táctil actual del usuario utilizando la mitad de la distancia.
De esta manera, la figura 10 todavía se usa como ejemplo. Debido a que el área táctil de objetivo 801 en la esquina inferior izquierda de la aplicación A de juego se usa generalmente para controlar la dirección del movimiento y la distancia del movimiento de un personaje del juego, cuando el usuario aumenta la sensibilidad táctil en el área táctil de objetivo 801, el personaje del juego puede ser controlado, usando una operación táctil con una distancia de movimiento relativamente corta, para moverse a una ubicación relativamente distante. Esto mejora la velocidad de movimiento del personaje del juego, brinda una mejor experiencia de juego al usuario y mejora la eficiencia de las operaciones de entrada y salida cuando el terminal ejecuta la aplicación A.
Opcionalmente, para permitir que el usuario reconozca rápidamente la regla de asignación táctil de la sensibilidad táctil, cuando el usuario ajusta el valor de la sensibilidad táctil 1001 para que esté en diferentes ubicaciones de la barra de progreso, el terminal puede indicar al usuario un significado específico de una sensibilidad táctil actual. Tal como se muestra en la figura 12, cuando el usuario establece el valor de la sensibilidad táctil 1001 en 80, el terminal puede indicar, utilizando una ventana flotante 1101, al usuario, que la velocidad de movimiento del personaje del juego aumenta en 1,8 veces en este caso.
En este caso, el terminal puede usar una sensibilidad táctil 80 que el usuario establece como un parámetro de asignación de coordenadas en la regla de asignación táctil. Alternativamente, se puede usar una tasa de aumento de 1,8 veces correspondiente a la sensibilidad táctil 80 como parámetro de asignación de coordenadas en la regla de asignación táctil. Ciertamente, cuando la sensibilidad táctil establecida por el usuario es inferior a 0, se puede usar una tasa de reducción correspondiente a la sensibilidad táctil actual como parámetro de asignación de coordenadas en la regla de asignación táctil. Posteriormente, al detectar que el usuario introduce una primera operación táctil en el área táctil de objetivo, el terminal puede aumentar o disminuir los valores de coordenadas de un punto de coordenadas en la primera operación táctil en función del parámetro de asignación de coordenadas, para asignar la primera operación táctil a una segunda operación táctil.
En otras palabras, el terminal puede proporcionar, en forma de sensibilidad táctil, una función personalizada para el área táctil de objetivo para el usuario, y el terminal puede almacenar, en forma de parámetro de asignación de coordenadas, la sensibilidad táctil que es personalizada y configurada por el usuario, para implementar posteriormente la función personalizada para la sensibilidad táctil basándose en el parámetro de asignación de coordenadas.
Puede entenderse que el usuario puede personalizar aún más una pluralidad de áreas táctiles de objetivo en la interfaz de configuración que se muestra en la etapa S502, y establecer una regla de asignación táctil para cada área táctil de objetivo.
La aplicación A de juego todavía se usa como ejemplo. Tal como se muestra en la figura 13, el usuario personaliza dos áreas táctiles de objetivo en la interfaz de configuración. Una es un área circular (es decir, un área táctil de objetivo 1) en la esquina inferior izquierda de la pantalla táctil y la otra es un área rectangular (es decir, el área táctil de objetivo 2) en una esquina inferior derecha de la pantalla táctil.
Para el área táctil de objetivo 1, el usuario establece un valor de sensibilidad táctil en una regla de asignación táctil del área táctil de objetivo 1 en 80, para mejorar la velocidad de movimiento de un personaje del juego de la aplicación A. Para el área táctil de objetivo 2, debido a que el área se usa, en general, para implementar diversas operaciones de ataque en un juego en la aplicación A, estas operaciones se establecen, en general, cuando se libera la aplicación A o cuando se entrega el terminal desde una fábrica. Por ejemplo, se puede pulsar dos veces un botón de ataque para lanzar un ataque. Sin embargo, es difícil para el usuario realizar una operación de doble pulsación. El usuario puede esperar que una operación táctil también pueda lograr un efecto de ataque que puede lograr la operación de doble pulsación. Sin embargo, algunas aplicaciones de juegos determinan un valor de entrada de una función utilizando una frecuencia de una operación táctil continua, pero la operación táctil continua es difícil. El usuario puede esperar lograr un efecto de la operación táctil continua realizando una operación de pulsar y mantener.
En esta implementación de esta solicitud, el usuario puede personalizar aún más un evento de respuesta de una acción táctil en el área táctil de objetivo. Aún tal como se muestra en la figura 13, el usuario puede seleccionar una opción de “asignación de una operación táctil a una operación de doble pulsación” y una opción de “asignación de una operación de pulsar y mantener a una operación táctil continua” en el área táctil de objetivo 2. El terminal almacena un evento de respuesta de la acción táctil seleccionada por el usuario. Posteriormente, cuando el terminal recibe una operación táctil introducida por el usuario en el área táctil de objetivo 2, el terminal puede asignar la operación táctil a una operación de doble pulsación según una regla de asignación de pulsación preestablecida por el usuario para el área táctil de objetivo 2, con el fin de implementar un efecto de operación de doble pulsación y mejorar la eficiencia de las operaciones de entrada y salida cuando el terminal ejecuta la aplicación A.
Además, el terminal puede proporcionar asimismo una opción de configuración más detallada de la regla de asignación táctil para el usuario. Por ejemplo, cuando el usuario establece que la operación táctil se asigna a la operación táctil doble, se puede establecer además un intervalo de tiempo de la operación táctil doble. Cuando el usuario establece que la operación de pulsar y mantener se asigna a la operación táctil continua, los parámetros tales como un umbral de tiempo (en otras palabras, la duración de la pulsación se asigna a la operación táctil continua) de la operación de pulsar y mantener y se puede configurar el intervalo de tiempo entre operaciones de pulsación adyacentes asignadas por la operación de pulsar y mantener, de modo que la experiencia táctil del usuario en una interfaz de operación de la aplicación A se ajuste más a un hábito de operación del usuario.
Además, tal como se muestra en la figura 14, después de recibir una regla de asignación táctil establecida por el usuario para un área táctil de objetivo (por ejemplo, el área táctil de objetivo 1), el terminal puede solicitar al usuario que configure el área táctil de objetivo y un objeto en el que el entra en vigor la regla de asignación táctil del área táctil de objetivo. Por ejemplo, se puede configurar que la regla de asignación táctil de aumentar la sensibilidad táctil a 80 en el área táctil de objetivo 1 surta efecto en todas las interfaces en un proceso en ejecución de la aplicación A, o se puede configurar que la regla de asignación táctil tenga efecto solo en una o más interfaces en el proceso de ejecución de la aplicación A, por ejemplo, una interfaz de batalla en un planteamiento de batalla.
Cada aplicación puede distinguir diferentes interfaces mediante el uso de un identificador de interfaz (por ejemplo, un nombre de clase de una actividad en un sistema Android) durante la ejecución. Por lo tanto, el terminal puede asociar la regla de asignación táctil con un nombre de clase que es de una Actividad de una o más interfaces y que es configurada por el usuario.
Por ejemplo, el terminal puede almacenar previamente una correspondencia entre diferentes tipos de interfaces de visualización en la aplicación A y nombres de clase de Actividades de las interfaces de visualización. Por ejemplo, una interfaz de configuración en la aplicación A incluye una Actividad 1 y una Actividad 2, y una interfaz de batalla en la aplicación A incluye una Actividad 3 y una Actividad 4. Cuando el usuario establece un objeto efectivo de la regla de asignación táctil en el interfaz de batalla, el terminal puede asociar la regla de asignación táctil con la Actividad 3 y la Actividad 4. Posteriormente, cuando el terminal identifica que una operación táctil introducida por el usuario ocurre en la interfaz asociada, el terminal puede responder a la acción táctil del usuario en el área táctil de objetivo 1 usando la regla de asignación táctil. Alternativamente, el usuario puede introducir manualmente cada interfaz de visualización para establecer una regla de asignación táctil que tenga efecto solo en una interfaz actual. Esto no está limitado en esta implementación de esta solicitud.
Ciertamente, los identificadores tales como el nombre de un paquete o un ID de proceso que se utilizan cuando se ejecutan diferentes aplicaciones suelen ser diferentes. Por lo tanto, el usuario también puede configurar la regla de asignación táctil para que sea efectiva para otra o para más aplicaciones. En este caso, el terminal puede asociar la regla de asignación táctil con el identificador que es de una o más aplicaciones y que es configurado por el usuario; de esta manera, al ejecutar la una o más aplicaciones posteriormente, el terminal también puede responder a la acción táctil del usuario en el área táctil de objetivo 1 mediante el uso de la regla de asignación táctil.
Cabe señalar que, cuando el usuario personaliza la pluralidad de áreas táctiles de objetivo en la interfaz de configuración, la pluralidad de áreas táctiles de objetivo puede superponerse. Tal como se muestra en la figura 15, el usuario primero personaliza y establece un área táctil de objetivo 3 y una regla de asignación táctil A del área táctil de objetivo 3 en la interfaz de configuración, y luego personaliza y configura un área táctil de objetivo 4 en la interfaz de configuración. Hay un área superpuesta entre el área táctil de objetivo 4 y el área táctil de objetivo 3.
En este caso, si una regla de asignación táctil B establecida por el usuario para el área táctil de objetivo 4 entra en conflicto con la regla de asignación táctil A, por ejemplo, el usuario establece un valor de sensibilidad táctil en el área táctil de objetivo 3 en 80, y posteriormente establece un valor de sensibilidad táctil en el área táctil de objetivo 4 en 30, la regla de asignación táctil B entra en conflicto con la regla de asignación táctil A. En este caso, el terminal puede mostrar un aviso de error al usuario, o aún, tal como se muestra en la figura 15, el terminal puede volver a confirmar con el usuario si cambia la sensibilidad táctil establecida previamente para el área táctil de objetivo 3 y, si el usuario confirma cambiar la sensibilidad táctil del área táctil de objetivo 3, en este caso, el terminal puede establecer valores de sensibilidades táctiles tanto del área táctil de objetivo 3 como del área táctil de objetivo 4 en 30.
Ciertamente, si la regla de asignación táctil A del área táctil de objetivo 3 no entra en conflicto con la regla de asignación táctil B del área táctil de objetivo 4, el terminal puede continuar realizando la siguiente etapa S504, en otras palabras, almacenar cada área táctil de objetivo personalizada por el usuario y su regla de asignación táctil de objetivo en una determinada estructura de datos.
S504. El terminal almacena una correspondencia entre el área táctil de objetivo, la regla de asignación táctil de objetivo del área táctil de objetivo y la aplicación de objetivo.
Específicamente, después de que el terminal obtiene el área táctil de objetivo personalizada por el usuario en la pantalla táctil y la regla de asignación táctil de objetivo que se establece para el área táctil de objetivo, el terminal puede almacenar la correspondencia entre el área táctil de objetivo, la regla de asignación táctil de objetivo del área táctil de objetivo y la aplicación (o una interfaz) en la que la regla de asignación de pulsación de objetivo tiene efecto en una memoria mediante el uso de una estructura de datos preestablecida, de modo que, cuando una operación táctil introducida por el usuario se reciba posteriormente, se pueda encontrar una regla de asignación de pulsación de objetivo correspondiente para responder a la operación táctil.
Tal como se muestra en la Tabla 1, el terminal puede establecer un archivo de perfil (configuración) para cada área táctil de objetivo usando un área táctil de objetivo como granularidad. El archivo de perfil está asociado con una o más aplicaciones (o interfaces) correspondientes. Cada archivo de perfil registra una ubicación de un área táctil de objetivo correspondiente en la pantalla táctil y una regla de asignación táctil de objetivo del área táctil de objetivo.
Se utiliza un perfil 1 como ejemplo. El usuario introduce un área táctil de objetivo personalizada, Área 1, y una sensibilidad táctil del Área 1 (es decir, la segunda entrada en la etapa S503) al terminal en la interfaz de configuración de la aplicación A de juego. En respuesta a la segunda entrada, el terminal genera el perfil 1. El perfil 1 incluye información de coordenadas del Área 1 y una regla de asignación táctil de objetivo que establece el usuario para el Área 1. En la regla de asignación táctil de objetivo, un valor de la sensibilidad táctil se modifica a 80, y el evento de respuesta de la acción táctil aún utiliza un mecanismo de respuesta predeterminado del terminal y no se modifica. Además, el terminal establece una correspondencia entre el perfil 1 y la aplicación A. Posteriormente, al ejecutar la aplicación A, el terminal puede obtener, consultando una relación de asignación que se muestra en la Tabla 1, todos los archivos de perfil correspondientes a la aplicación A.
Tabla 1
Figure imgf000013_0001
Además, en algunas implementaciones de esta solicitud, tal como se muestra en la figura 16, el terminal puede compartir, además, un archivo de perfil generado, con otro dispositivo. De esta manera, se puede copiar una misma área de objetivo personalizada y un mismo efecto de control táctil en otro dispositivo. Ciertamente, si un parámetro de visualización tal como la resolución de pantalla de un dispositivo de recepción que recibe el archivo de perfil es diferente de un parámetro de visualización del terminal que envía el archivo de perfil, el dispositivo de recepción también puede realizar la conversión correspondiente en el archivo de perfil recibido para su uso. Esto no está limitado en esta implementación de esta solicitud.
Alternativamente, en algunas otras implementaciones de esta solicitud, todavía tal como se muestra en la figura 16, el terminal puede cargar el archivo de perfil generado en un servidor en la nube. Al ejecutar una aplicación relacionada (por ejemplo, la aplicación A de juego), otro terminal también puede descargar, desde la nube, el perfil 1 correspondiente a la aplicación A, y copiar una misma área de objetivo personalizada y un mismo efecto de control táctil en el otro dispositivo.
Ciertamente, después de recibir el archivo de perfil notificado por cada terminal, el servidor también puede optimizar, utilizando un algoritmo tal como las estadísticas de big data, un archivo de perfil correspondiente a una aplicación (o una interfaz). Por ejemplo, cuando el 90 % de los terminales ejecutan la aplicación A, el valor de la sensibilidad táctil del Área 1 se ajusta para que sea mayor de 80; en este caso, el servidor puede optimizar un archivo de perfil que incluye el Área 1 y que corresponde a la aplicación A, ajustar un valor de sensibilidad táctil en una regla de asignación táctil de objetivo del archivo de perfil que incluye el Área 1 y que corresponde a la aplicación A, en 80, y luego entregar un archivo de perfil optimizado a un terminal cuya sensibilidad táctil es inferior a 80, por lo que el terminal implementa un efecto de control táctil con una sensibilidad táctil más alta cuando se ejecuta la aplicación A. Ciertamente, después de recibir el archivo de perfil optimizado enviado por el servidor, el terminal puede solicitar al usuario si debe usar la regla de asignación de pulsación que se establece en el archivo de perfil optimizado, con el fin de mejorar la experiencia del usuario.
Realizando las etapas S501 a S504, en diferentes planteamientos de aplicación, el usuario puede dividir la pantalla táctil del terminal en áreas lógicas, para obtener un área táctil personalizada por un usuario. Además, el usuario puede establecer, en el área táctil personalizada por el usuario, una regla de asignación táctil que se ajuste a un planteamiento de aplicación actual y un hábito de operación del usuario, para que el usuario obtenga posteriormente una sensación táctil personalizada en el área táctil personalizada por el usuario. Esto implementa un control refinado y personalizado en la pantalla táctil del terminal, para mejorar la eficiencia de entrada y salida del terminal en diferentes planteamientos de aplicación.
En algunas otras implementaciones de esta solicitud, se da a conocer un método de control táctil. Tal como se muestra en la figura 17, el método incluye las siguientes etapas.
S601. Un terminal obtiene una primera operación táctil introducida por un usuario en una pantalla táctil.
Opcionalmente, el terminal puede obtener información de coordenadas de un punto de contacto por el que pasa la primera operación táctil. El punto de contacto descrito en este documento puede ser un punto de contacto detectado por la pantalla táctil cuando el usuario introduce la primera operación táctil, o puede ser un píxel que corresponde al punto de contacto detectado por la pantalla táctil y que está en una pantalla de visualización.
De manera similar a la etapa S501, la aplicación de objetivo puede ser cualquier aplicación instalada en el terminal, tal como una aplicación de vídeo, una aplicación de juegos o una aplicación de comunicación. Esto no está limitado en esta implementación de esta solicitud.
La aplicación A de juego todavía se usa como ejemplo. Al ejecutar la aplicación A, el terminal puede mostrar una interfaz de visualización de la aplicación A en la pantalla táctil en tiempo real, y el usuario puede introducir una operación de entrada correspondiente en la pantalla táctil para implementar una función relacionada proporcionada por la aplicación A.
Por ejemplo, tal como se muestra en la figura 18, después de iniciar la aplicación A, el terminal entra en una interfaz de batalla 1701 en un juego, y el usuario puede pulsar un mando de control 1702 simulado en un área de la esquina inferior izquierda de la interfaz de batalla 1701 para controlar un personaje del juego para moverse hacia arriba, hacia abajo, hacia la izquierda y hacia la derecha. Por lo tanto, cuando el usuario mueve el mando de control 1702 simulado para deslizarlo hacia la derecha (es decir, la primera operación táctil), la pantalla táctil del terminal puede notificar la información táctil detectada (por ejemplo, incluyendo un evento táctil e información de coordenadas de un punto táctil) para una capa de núcleo, una capa de marco y una capa de aplicaciones del terminal en secuencia.
Ciertamente, la pantalla táctil puede añadir, además, información táctil tal como la duración de la pulsación de la operación táctil actual detectada a la primera operación táctil. Esto no está limitado en esta implementación de esta solicitud.
Además, la información de coordenadas en la operación táctil puede ser información de coordenadas absolutas del punto de contacto en la pantalla táctil, o puede ser información de coordenadas relativas obtenida después de que el terminal convierte la información de coordenadas absolutas.
La información de coordenadas absolutas son las coordenadas del punto de contacto en un sistema de coordenadas definido por un fabricante de la pantalla táctil. Por ejemplo, en un proceso de fabricación de una pantalla táctil, se puede configurar un sistema de coordenadas de la pantalla táctil en un chip IC de la pantalla táctil. Tal como se muestra en (a) en la figura 19, se establece un primer sistema de coordenadas utilizando una esquina inferior izquierda de la pantalla táctil como un origen O (0, 0). En este caso, cuando la pantalla táctil detecta que el usuario introduce una operación táctil en un punto P de la pantalla táctil, se puede determinar, en el primer sistema de coordenadas, que las coordenadas del punto P son P (5, 0). En este caso, P (5, 0) es la información de coordenadas absolutas.
Sin embargo, en algunos casos, un sistema de coordenadas establecido en la pantalla táctil puede ser diferente de un sistema de coordenadas definido por un sistema operativo del terminal. Por ejemplo, tal como se muestra en (b) en la figura 19, el sistema operativo del terminal establece un segundo sistema de coordenadas utilizando una esquina superior izquierda de la pantalla táctil como origen O’ (0, 0). En este caso, la operación táctil introducida por el usuario en el punto P de la pantalla táctil se asigna, en el segundo sistema de coordenadas, a una operación táctil en el punto P’ (5, 15) de la pantalla táctil. En este caso, P’ (5, 15) es la información de coordenadas relativas.
Opcionalmente, el proceso anterior de hacer corresponder la información de coordenadas absolutas con la información de coordenadas relativas puede ser completado por la capa de núcleo en el terminal, o puede ser completado por la capa de marco en el terminal. Esto no está limitado en esta implementación de esta solicitud.
S602. El terminal determina si la primera operación táctil se realiza en una primera área preestablecida en una interfaz de objetivo.
La interfaz de objetivo es cualquier interfaz presentada por la aplicación de objetivo que se ejecuta en primer plano en la etapa S601. Por ejemplo, la primera área preestablecida es el área táctil de objetivo personalizada por el usuario en la implementación anterior, y la interfaz de objetivo puede cubrir una parte o la totalidad del área táctil de objetivo.
Además, que la primera operación táctil se realice en la primera área preestablecida puede significar que la pantalla táctil detecta, de manera flotante o táctil, que un objeto de operación o una pista de operación de la primera operación táctil del usuario se encuentra dentro de la primera área preestablecida. Por ejemplo, cuando se detecta que las coordenadas de un punto táctil de la primera operación táctil se encuentran dentro de la primera área preestablecida, se puede determinar que la primera operación táctil se realiza en la primera área preestablecida.
Específicamente, en la etapa S602, después de obtener la primera operación táctil en la interfaz de objetivo, para determinar si responde a la primera operación táctil utilizando la regla de asignación táctil personalizada por el usuario, el terminal puede obtener un identificador de la aplicación de objetivo que se está ejecutando en primer plano en este momento, y buscar más, basándose en el identificador de la aplicación de objetivo, la correspondencia que se muestra en la Tabla 1 para todos los archivos de perfil correspondientes a la aplicación de objetivo. Debido a que cada uno de estos archivos de perfil registra una ubicación específica del área táctil de objetivo personalizada por el usuario, el terminal puede determinar, basándose en la información de coordenadas del punto de contacto en la primera operación táctil, un archivo de perfil en el que la primera operación táctil se encuentra específicamente dentro del área táctil de objetivo.
Por ejemplo, si el terminal obtiene que un identificador de una aplicación actualmente en ejecución es un nombre de paquete de la aplicación A, se puede determinar, por medio de la Tabla 1, que dos archivos de perfil (a saber, el perfil 1 y el perfil 2 en la Tabla 1) son personalizados por el usuario cuando se ejecuta la aplicación A. Además, el terminal puede comparar de manera separada la información de coordenadas P (x, y) del punto de contacto en la primera operación táctil con el Área 1 en el perfil 1 y el Área 2 en el perfil 2, para determinar que el punto P se encuentra dentro del área táctil de objetivo, Área 1, en la esquina inferior izquierda de la pantalla táctil.
Cabe señalar que, cuando el terminal determina si la información de coordenadas se encuentra dentro del área de contacto de objetivo, el sistema de coordenadas utilizado por la información de coordenadas del punto de contacto debe ser el mismo que el sistema de coordenadas utilizado por el área de contacto de objetivo registrado en la Tabla 1. Por ejemplo, el terminal registra la ubicación del Área 1 basándose en el segundo sistema de coordenadas definido por el sistema operativo, y la información de coordenadas P (x, y) del punto de contacto en la primera operación táctil notificada por la pantalla táctil al terminal se registra basándose en el primer sistema de coordenadas. En este caso, cuando la pantalla táctil notifica la información de las coordenadas P (x, y) a la capa de núcleo del terminal, la capa de núcleo puede asignar la información de las coordenadas P (x, y) a las coordenadas P’ (x’, y ’) en el segundo sistema de coordenadas y determina, además, si las coordenadas P’ (x’, y ’) se encuentran dentro del área de contacto del objetivo Área 1.
5603. Si la primera operación táctil se encuentra dentro de la primera área preestablecida, el terminal asigna la primera operación táctil a una segunda operación táctil.
5604. La aplicación de objetivo responde a la segunda operación táctil para implementar una función táctil personalizada cuando la aplicación de objetivo se está ejecutando.
Todavía usando un ejemplo en el que la información de coordenadas P (x, y) del punto de contacto en la primera operación táctil se encuentra dentro del área de contacto de objetivo, Área 1, en este caso, con referencia al diagrama arquitectónico del sistema Android que se muestra en la figura 3 y la figura 4, tal como se muestra en la figura 20, la pantalla táctil encapsula la primera operación táctil detectada como un evento táctil original mediante el uso de un controlador, y notifica el evento táctil original a una capa 204 de núcleo del terminal. Además, la capa 204 del núcleo asigna la información de coordenadas P (x, y) transportada en el evento táctil original a las coordenadas P’ (x’, y ’) en el segundo sistema de coordenadas, y encapsula el evento táctil original como un evento táctil avanzado que puede ser leído por una capa superior, y reporta el evento táctil avanzado a una capa 202 de marco. La capa 202 de marco puede determinar, consultando una correspondencia entre un archivo de perfil y una aplicación que se muestra en la Tabla 1, que coordina P’ (x’, y ’) que se lleva en el evento táctil avanzado se encuentra dentro del área táctil de objetivo, Área 1, personalizada por el usuario en el perfil 1.
En este caso, el terminal puede buscar una regla de asignación táctil de objetivo registrada en el perfil 1. Un parámetro de asignación de coordenadas usado para reflejar una sensibilidad táctil se establece en la regla de asignación táctil de objetivo. Por ejemplo, el parámetro de asignación de coordenadas es 1,8, en otras palabras, la aplicación A responde a una relación de distancia de 1,8 veces, a la primera acción táctil introducida por el usuario en el área táctil de objetivo, Área 1. Luego, la capa 202 de marco puede multiplicar una coordenada horizontal y una coordenada vertical en las coordenadas P’ (x’, y’) por 1,8 veces, para obtener las coordenadas modificadas Q (1,8x’, 1,8y’), y usar las coordenadas modificadas Q (1,8x’, 1,8y’) como información de coordenadas de un punto de contacto en la segunda operación táctil. La capa 202 de marco agrega las coordenadas modificadas Q (1,8x’, 1,8y’) al evento táctil avanzado y notifica el evento táctil avanzado a la aplicación A que se ejecuta en la capa de aplicaciones, de modo que la aplicación A pueda responder a la segunda operación táctil basada en las coordenadas modificadas Q (1,8x’, 1,8y’). En otras palabras, el usuario introduce la primera operación táctil en el punto P (x, y) a la pantalla táctil, y una aplicación en el terminal finalmente responde al usuario con la segunda operación táctil en el punto Q (1,8x’, 1,8 y’).
Por ejemplo, tal como se muestra en la figura 21, el terminal detecta la primera operación táctil introducida por el usuario en el punto P (1, 0). Debido a que el punto P se encuentra dentro del área táctil de objetivo, Área 1, personalizada por el usuario en el perfil 1, el terminal modifica las coordenadas P (1, 0) a las coordenadas Q (1,8 x 1, 1.8 x 0) = Q (1,8, 0) basándose en un valor 80 de una sensibilidad táctil en el perfil 1. En este caso, después de que la aplicación A obtiene la segunda operación táctil cuyos valores de coordenadas son Q (1,8, 0), si las coordenadas de un punto táctil en una operación táctil recibida por la última vez que la aplicación A es O (0, 0), la aplicación A considera que un dedo del usuario controla el mando de control 1702 simulado para que se mueva hacia la derecha 1.8 cm desde O (0, 0) hasta Q (1,8, 0), y en realidad el usuario controla el mando de control 1702 simulado para que se mueva hacia la derecha 1 cm desde el punto O (0, 0) hasta el punto P (1,0). Esto implementa un efecto de controlar el mando de control 1702 simulado para que se mueva 1,8 cm y mejora la velocidad de movimiento de un personaje del juego.
Además, si se fija un área de control del mando de control 1702 simulado, por ejemplo, el usuario solo puede controlar el mando de control 1702 simulado en un área circular que se muestra en el Área 1 en la figura 21. En este caso, si el terminal modifica las coordenadas del punto de contacto en la primera operación táctil en función del valor de la sensibilidad táctil, y las coordenadas modificadas (por ejemplo, el punto Q) superan un límite de control del área de control, Área 1, del mando de control 1702 simulado, tal como se muestra en la figura 21, el terminal puede notificar, a la aplicación A, un punto Z que está en el límite de control y que es el más cercano al punto Q como información de coordenadas asignadas del punto de contacto en la segunda operación táctil, para evitar un problema de que la aplicación no puede responder correctamente a la primera operación táctil debido a que las coordenadas modificadas exceden el área de control correspondiente a la primera operación táctil .
Cabe señalar que la implementación anterior se describe usando como ejemplo una implementación de una sensibilidad táctil fija. En otras palabras, tal como se muestra en (a) en la figura 22, después de que el usuario establece la sensibilidad táctil del área táctil de objetivo, Área 1, en 80, el terminal siempre responde a la operación táctil del usuario en el área táctil de objetivo, Área 1, en una proporción de 1,8.
Puede entenderse que el terminal también puede modificar la operación táctil de manera no lineal, y finalmente alcanzar una sensibilidad táctil que es configurada por el usuario. Por ejemplo, tal como se muestra en (b) en la figura 22, después de que el usuario establezca la sensibilidad táctil del área táctil de objetivo, Área 1, en 80, el terminal puede cambiar la sensibilidad táctil en función de la distancia de deslizamiento del usuario en el Área 1, y aumentar gradualmente la sensibilidad táctil del terminal cuando la distancia de deslizamiento es mayor, hasta que la sensibilidad táctil aumenta en 1,8 veces la sensibilidad táctil predeterminada.
Además, tal como se muestra en la figura 23, después de que la capa 202 de marco notifique el evento táctil avanzado a la aplicación A que se ejecuta en la capa de aplicaciones, la aplicación A puede invocar una función de librería relacionada en una capa 203 de librería de tiempos de ejecución del sistema, y la función de librería ayuda a la aplicación A a determinar, basándose en un parámetro transferido en el evento táctil avanzado, una operación táctil específica realizada por el usuario en el punto P, por ejemplo, una operación táctil. Después de determinar que la operación táctil actual es la operación táctil, si un archivo de perfil correspondiente al punto de contacto P registra que un evento de respuesta de la operación táctil es una operación de doble pulsación, el terminal no devuelve una función de devolución de llamada escrita para la operación táctil en la aplicación A, sino que devuelve una función de devolución de llamada escrita para la operación de doble pulsación en la aplicación A; en otras palabras, (la operación táctil) la primera operación táctil se asigna a la segunda operación táctil (la operación de doble pulsación), para que la aplicación A responda a la operación de doble pulsación e implemente un efecto de la operación de doble pulsación en el punto de contacto P.
Ciertamente, si la capa 202 de marco obtiene un evento táctil avanzado 1 generado cuando el usuario realiza la operación táctil en el punto P, y puede determinar basándose en el evento táctil avanzado 1, que el usuario realiza la operación táctil en el punto P, en este momento, la capa 202 de marco puede modificar, en función del archivo de perfil correspondiente al punto, el evento táctil avanzado 1 generado por la operación táctil a un evento táctil avanzado 2 que debe generarse cuando el usuario realiza la operación de pulsar dos veces en el punto P e informar del evento táctil avanzado 2 a la aplicación A que se ejecuta en la capa de aplicaciones. De esta manera, cuando la aplicación A invoca una función de librería relacionada en la capa 203 de librería de tiempos de ejecución del sistema, se puede determinar que una operación táctil específica realizada por el usuario en el punto P es la operación de doble pulsación. En este caso, el terminal puede devolver la llamada a la función de devolución de llamada escrita para la operación de doble pulsación en la aplicación A, de modo que la aplicación A también pueda responder a la operación de doble pulsación e implementar el efecto de la operación de doble pulsación en el punto P.
Además, en un proceso de ejecución de una aplicación, el usuario normalmente tiene requisitos diferentes sobre la sensibilidad táctil de la aplicación solo cuando el usuario realiza una operación táctil de tipo deslizante. Por lo tanto, cuando la información de coordenadas en la operación táctil se encuentra dentro del área táctil de objetivo, el terminal puede determinar, usando una función de la librería, que la operación táctil actual es una operación deslizante, y luego, la información de coordenadas en la operación táctil es modificada basándose en la sensibilidad táctil personalizada por el usuario en el archivo de perfil.
Ciertamente, si la información de coordenadas en la operación táctil no se encuentra dentro de un área táctil de objetivo predeterminada para la aplicación de objetivo, o si una regla de asignación táctil que se establece en un archivo de perfil correspondiente a la información de coordenadas es una regla de asignación táctil predeterminada del terminal, después de obtener la operación táctil, el terminal no necesita modificar la operación táctil, y la aplicación de objetivo responde a la operación táctil basándose en la información táctil relacionada transportada en la operación táctil real. Esto no está limitado en esta implementación de esta solicitud.
Puede entenderse que, para implementar las funciones anteriores, el terminal y similares incluyen estructuras de hardware y/o módulos de software correspondientes para realizar las funciones. Una persona experta en la técnica debe saber fácilmente que, en combinación con los ejemplos descritos en las implementaciones descritas en esta memoria descriptiva, las unidades, los algoritmos y las etapas pueden implementarse mediante hardware o una combinación de hardware y software informático en esta solicitud. El hecho de que una función sea realizada por hardware o hardware dirigido por software informático depende de las aplicaciones particulares y de las restricciones de diseño de las soluciones técnicas. Un experto en la materia puede utilizar diferentes métodos para implementar las funciones descritas para cada aplicación en particular, pero no debe considerarse que la implementación va más allá del alcance de las implementaciones de esta solicitud.
En las implementaciones de esta solicitud, el terminal puede dividirse en módulos funcionales basados en los ejemplos de métodos anteriores. Por ejemplo, cada módulo funcional puede obtenerse mediante división basada en cada función correspondiente, o pueden integrarse dos o más funciones en un módulo de procesamiento. El módulo integrado puede implementarse en forma de hardware, o puede implementarse en forma de un módulo funcional de software. Cabe señalar que, en esta implementación de esta solicitud, la división de módulos es un ejemplo y es simplemente una división de función lógica. En la implementación real, se puede usar otro modo de división.
Cuando cada módulo de función se obtiene por división a partir de cada función correspondiente, la figura 24 es un posible diagrama estructural esquemático del terminal en las implementaciones anteriores. El terminal incluye una unidad de obtención 2401, una unidad de almacenamiento 2402, una unidad de visualización 2403 y una unidad de asignación 2404.
La unidad de obtención 2401 está configurada para ayudar al terminal a realizar los procesos S501 y S503 en la figura 5 y el proceso S601 en la figura 17. La unidad de almacenamiento 2402 está configurada para ayudar al terminal a realizar el proceso S504 en la figura 5. La unidad de visualización 2403 está configurada para ayudar al terminal a realizar el proceso S502 en la figura 5. La unidad de asignación 2404 está configurada para ayudar al terminal a realizar los procesos S602 a S604 en la figura 17. Todo el contenido relacionado de las etapas en las implementaciones del método anterior puede citarse en las descripciones de funciones de un módulo funcional correspondiente. Los detalles no se describen de nuevo en el presente documento.
Cuando se usa una unidad integrada, la unidad de asignación 2404 puede usarse como módulo de procesamiento, la unidad de almacenamiento 2402 puede usarse como módulo de almacenamiento, la unidad de obtención 2401 puede usarse como módulo de entrada y la unidad de visualización 1106 puede usarse utilizado como módulo de visualización.
En este caso, la figura 25 es un posible diagrama estructural esquemático de un terminal en las implementaciones anteriores. Un módulo de procesamiento 2502 está configurado para controlar y gestionar una acción del terminal. Un módulo de entrada 2503 está configurado para soportar la interacción entre el terminal y un usuario. Un módulo de almacenamiento 2501 está configurado para almacenar código de programa y datos del terminal. El módulo de visualización 2504 está configurado para mostrar la información introducida por el usuario o la información proporcionada para el usuario, y diversos menús del terminal.
En esta implementación de esta solicitud, el terminal puede obtener, utilizando el módulo de entrada 2503, una primera operación táctil introducida por el usuario en una pantalla táctil. Cuando la primera operación táctil se realiza en una primera área preestablecida en una interfaz de objetivo (es decir, una interfaz en la que se ejecuta una aplicación de objetivo en primer plano), el módulo de procesamiento 2502 puede asignar la primera operación táctil a una segunda operación táctil, de modo que la aplicación de objetivo responda a la segunda operación táctil, para implementar un control refinado y personalizado en la pantalla táctil.
Todo el contenido relacionado de las etapas relacionadas con el método de cambio de aplicación se puede citar en descripciones relacionadas en las etapas S501 a S504 o S601 a S604 en la implementación anterior. Los detalles no se describen de nuevo en el presente documento.
El módulo de procesamiento 2502 puede ser un procesador o un controlador, tal como una unidad central de procesamiento (Central Processing Unit, CPU), una GPU, un procesador de uso general, un procesador de señales digitales (Digital Signal Processing, DSP), un circuito integrado específico de una aplicación (Application-Specific Integrated Circuit, ASIC), una matriz de puertas programables en campo (Field Programmable Gate Array, FPGA) u otro dispositivo lógico programable, un dispositivo lógico de transistor, un componente de hardware o una combinación de los mismos. El procesador puede implementar o ejecutar diversos ejemplos de bloques lógicos, módulos y circuitos descritos con referencia al contenido dado a conocer en esta solicitud. El procesador puede ser una combinación de procesadores que implementen una función informática, por ejemplo, una combinación de uno o más microprocesadores, o una combinación del DSP y de un microprocesador.
El módulo de entrada 2503 puede ser un dispositivo de entrada/salida o una interfaz de comunicaciones, tal como una pantalla táctil o un micrófono.
El módulo de almacenamiento 2501 puede ser una memoria. La memoria puede incluir una memoria de acceso aleatorio (Random Access Memory, RAM) de alta velocidad o puede incluir una memoria no volátil, tal como un dispositivo de almacenamiento en disco, un dispositivo de almacenamiento flash u otro dispositivo de almacenamiento de estado sólido volátil.
El módulo de visualización 2504 puede ser una pantalla, y la pantalla puede estar configurada específicamente en forma de una pantalla de cristal líquido, un diodo orgánico emisor de luz o similar. Adicionalmente, un panel táctil puede estar integrado, además, en la pantalla, y estar configurado para: recoger un evento táctil en o cerca del panel táctil y enviar la información táctil recogida a otro componente (tal como el procesador).
Cuando el módulo de procesamiento 2502 es un procesador, el módulo de entrada 2503 es una pantalla táctil, el módulo de almacenamiento 2501 es una memoria y el módulo de visualización 2504 es una pantalla, el terminal dado a conocer esta implementación de esta solicitud puede ser el teléfono móvil 100 que se muestra en la figura 1.
Todas o algunas de las implementaciones anteriores pueden implementarse utilizando software, hardware, firmware o cualquier combinación de los mismos. Cuando se usa un programa de software para implementar las implementaciones, las implementaciones pueden implementarse total o parcialmente en forma de un producto de programa informático. El producto de programa informático incluye una o más instrucciones informáticas. Cuando las instrucciones del programa informático se cargan y ejecutan en el ordenador, se genera total o parcialmente el procedimiento o las funciones según las implementaciones de esta solicitud. El ordenador puede ser un ordenador de propósito general, un ordenador exclusivo, una red informática u otros aparatos programables. Las instrucciones informáticas pueden almacenarse en un medio de almacenamiento legible por ordenador o pueden transmitirse desde un medio de almacenamiento legible por ordenador a otro medio de almacenamiento legible por ordenador. Por ejemplo, las instrucciones informáticas pueden transmitirse desde un sitio web, ordenador, servidor o centro de datos a otro sitio web, ordenador, servidor o centro de datos de manera cableada (por ejemplo, un cable coaxial, una fibra óptica o una línea de abonado digital (Digital Subscriber Line, DSL)) o inalámbrica (por ejemplo, infrarrojos, radio o microondas). El medio de almacenamiento legible por ordenador puede ser cualquier medio utilizable accesible por un ordenador, o un dispositivo de almacenamiento de datos, tal como un servidor o un centro de datos, que integre uno o más medios utilizables. El medio utilizable puede ser un medio magnético (por ejemplo, un disquete, un disco duro o una cinta magnética), un medio óptico (por ejemplo, un DVD), un medio semiconductor (por ejemplo, una unidad de disco de estado sólido (Solid-State Drive, SSD)).
El alcance de la protección está definido por las reivindicaciones adjuntas.

Claims (18)

REIVINDICACIONES
1.Un método de control táctil para usar en un dispositivo terminal, comprendiendo el dispositivo terminal una capa de núcleo del sistema operativo, una capa de aplicaciones y una capa de marco, dispuestas entre la capa de núcleo del sistema operativo y la capa de aplicaciones, comprendiendo el método:
detectar (S601), mediante la capa de núcleo del sistema operativo, una primera operación táctil introducida por un usuario en una pantalla táctil; y
cuando un punto de contacto de la primera operación táctil se encuentra dentro de una primera área preestablecida incluida en al menos un área preestablecida asociada con una interfaz de objetivo, obtener, mediante la capa de marco, una regla de asignación táctil que está preestablecida para la primera área preestablecida; modificar, mediante la capa de marco, la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil; y proporcionar, mediante la capa de marco a la capa de aplicaciones, la segunda operación táctil para que una aplicación de objetivo responda a la segunda operación táctil; y
cuando el punto de contacto de la primera operación táctil no se encuentra dentro de ninguna de la al menos un área preestablecida asociada con la aplicación de objetivo, proporcionar, mediante la capa de marco a la capa de aplicaciones, la primera operación táctil para que la aplicación de objetivo responda a la primera operación táctil; en el que la interfaz de objetivo es cualquier interfaz presentada por la aplicación de objetivo y que cubre la primera área preestablecida, y la aplicación de objetivo se ejecuta en primer plano;
en el que la primera operación táctil y la segunda operación táctil son operaciones de deslizamiento, y la distancia de deslizamiento de la segunda operación táctil es diferente de la distancia de deslizamiento de la primera operación táctil.
2. El método según la reivindicación 1, en el que la sensibilidad táctil de la primera área preestablecida es mayor que la sensibilidad táctil predeterminada, y la distancia de deslizamiento de la segunda operación táctil es mayor que la distancia de deslizamiento de la primera operación táctil; o,
la sensibilidad táctil de la primera área preestablecida es menor que la sensibilidad táctil predeterminada, y la distancia de deslizamiento de la segunda operación táctil es menor que la distancia de deslizamiento de la primera operación táctil.
3. El método según la reivindicación 1 o 2, en el que la primera área preestablecida es un área rectangular.
4. El método según cualquiera de las reivindicaciones 1 a 3, en el que la aplicación de objetivo es una aplicación de juego.
5. El método según la reivindicación 4, en el que la primera área preestablecida está ubicada en una esquina inferior izquierda de la interfaz de objetivo.
6. El método según cualquiera de las reivindicaciones 1 a 5, en el que la segunda operación táctil se notifica a la aplicación de objetivo.
7. El método según cualquiera de las reivindicaciones anteriores, en el que, cuando un punto de contacto de la primera operación táctil se encuentra dentro de una primera área preestablecida incluida en al menos un área preestablecida asociada con una interfaz de objetivo, obtener, mediante la capa de marco, una regla de asignación táctil que está preestablecida para la primera área preestablecida; y modificar, mediante la capa de marco, la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende:
cuando el dispositivo terminal detecta la primera operación táctil en la interfaz objetivo, buscar, mediante el dispositivo terminal, al menos un área preestablecida asociada con la aplicación de objetivo, donde al menos un área preestablecida comprende la primera área preestablecida;
cuando un punto de contacto de la primera operación táctil se encuentra dentro de la primera área preestablecida, obtener, mediante la capa de marco, una regla de asignación táctil que está preestablecida para la primera área preestablecida; y
asignar, mediante la capa de marco, la primera operación táctil a la segunda operación táctil, según la regla de asignación táctil.
8. El método según cualquiera de las reivindicaciones anteriores, en el que la modificación, mediante la capa de marco, de la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende: modificar, mediante la capa de marco, valores de coordenadas del punto de contacto en la primera operación táctil, y usar valores de coordenadas modificados como valores de coordenadas de un punto de contacto en la segunda operación táctil.
9. El método según cualquiera de las reivindicaciones 1 a 7, en el que la regla de asignación táctil comprende un parámetro de asignación de coordenadas; y
la modificación, mediante la capa marco, de la primera operación táctil a una segunda operación táctil según la regla de asignación táctil comprende:
aumentar o disminuir, mediante la capa de marco, los valores de las coordenadas del punto de contacto en la primera operación táctil basándose en el parámetro de asignación de coordenadas, para obtener los valores de las coordenadas de un punto de contacto en la segunda operación táctil.
10. El método según la reivindicación 9, en el que el aumento o disminución, mediante la capa de marco, de los valores de coordenadas del punto de contacto en la primera operación táctil basándose en el parámetro de asignación de coordenadas comprende:
multiplicar, mediante la capa de marco, los valores de coordenadas del punto de contacto en la primera operación táctil por el parámetro de asignación de coordenadas, en donde el parámetro de asignación de coordenadas es mayor que 1 o menor que 1.
11. El método según una cualquiera de las reivindicaciones 8 a 10, en el que después de modificar, mediante la capa de marco, los valores de las coordenadas del punto de contacto en la primera operación táctil, el método comprende, además:
si el punto de contacto con los valores de coordenadas modificados se encuentra más allá de un límite de control preestablecido de la primera operación táctil, usar, mediante la capa de marco, valores de coordenadas que están en el límite de control y que son los más aproximados a los valores de coordenadas modificados, como valores de coordenadas del punto de contacto en la segunda operación táctil.
12. El método según cualquiera de las reivindicaciones 7 a 11, en el que la modificación, mediante la capa de marco, de la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende: asignar, mediante la capa de marco, según la regla de asignación táctil, un primer evento táctil correspondiente a la primera operación táctil a un segundo evento táctil correspondiente a la segunda operación táctil, en donde el segundo evento táctil se notifica a la aplicación de objetivo.
13. Un dispositivo terminal (100), comprendiendo el dispositivo terminal una capa de núcleo del sistema operativo (204), una capa de aplicaciones (201) y una capa de marco (202), dispuestas entre la capa de núcleo del sistema operativo y la capa de aplicaciones, donde el dispositivo terminal es configurado para:
detectar, mediante la capa de núcleo del sistema operativo, una primera operación pulsación introducida por un usuario en una pantalla táctil (104); y
cuando un punto de contacto de la primera operación táctil se encuentra dentro de una primera área preestablecida incluida en al menos un área preestablecida asociada con una interfaz de objetivo, obtener, mediante la capa de marco, una regla de asignación táctil que está preestablecida para la primera área preestablecida; y modificar, mediante la capa de marco, la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil; y proporcionar, mediante la capa de marco a la capa de aplicaciones, la segunda operación táctil para que una aplicación de objetivo responda a la segunda operación táctil; y
cuando el punto de contacto de la primera operación táctil no se encuentra dentro de ninguna de la al menos un área preestablecida asociada con la aplicación de objetivo, proporcionar, mediante la capa de marco a la capa de aplicaciones, la primera operación táctil para que la aplicación de objetivo responda a la primera operación táctil; en el que la interfaz de objetivo es cualquier interfaz presentada por la aplicación de objetivo y que cubre la primera área preestablecida, y la aplicación de objetivo se ejecuta en primer plano;
en el que la primera operación táctil y la segunda operación táctil son operaciones de deslizamiento, y la distancia de deslizamiento de la segunda operación táctil es diferente de la distancia de deslizamiento de la primera operación táctil.
14. El dispositivo terminal según la reivindicación 13, en el que cuando un punto de contacto de la primera operación táctil se encuentra dentro de una primera área preestablecida incluida en al menos un área preestablecida asociada con una interfaz de objetivo, obtener, mediante la capa de marco, una regla de asignación táctil que es preestablecida para la primera área preestablecida; y modificar, mediante la capa de marco, la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende:
cuando el dispositivo terminal detecta la primera operación táctil en la interfaz de objetivo, buscar, mediante el dispositivo terminal, al menos un área preestablecida asociada con la aplicación de objetivo, en donde al menos un área preestablecida comprende la primera área preestablecida;
cuando un punto de contacto de la primera operación táctil se encuentra dentro de la primera área preestablecida, obtener, mediante la capa de marco, una regla de asignación táctil que está preestablecida para la primera área preestablecida; y
asignar, mediante la capa de marco, la primera operación táctil a la segunda operación táctil, según la regla de asignación táctil.
15. El dispositivo terminal según la reivindicación 13 o 14, en el que la modificación, mediante la capa de marco, de la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende: modificar, mediante la capa de marco, valores de coordenadas del punto de contacto en la primera operación táctil, y usar los valores de coordenadas modificados como valores de coordenadas de un punto de contacto en la segunda operación táctil.
16. El dispositivo terminal según la reivindicación 14, en el que la regla de asignación táctil comprende un parámetro de asignación de coordenadas; y
la modificación, mediante la capa de marco, de la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende:
aumentar o disminuir, mediante la capa de marco, los valores de las coordenadas del punto de contacto en la primera operación táctil basándose en el parámetro de asignación de coordenadas, para obtener los valores de las coordenadas de un punto de contacto en la segunda operación táctil.
17. El dispositivo terminal según cualquiera de las reivindicaciones 14 a 16, en el que la modificación, mediante la capa de marco, de la primera operación táctil a una segunda operación táctil, según la regla de asignación táctil, comprende: asignar, mediante la capa de marco según la regla de asignación táctil, un primer evento táctil correspondiente a la primera operación táctil a un segundo evento táctil correspondiente a la segunda operación táctil, en donde el segundo evento táctil se notifica a la aplicación de objetivo.
18. Un producto de programa informático que comprende instrucciones que, cuando se ejecutan en un dispositivo terminal, hacen que el dispositivo terminal realice el método según cualquiera de las reivindicaciones 1 a 12.
ES17931613T 2017-11-07 2017-11-07 Método y dispositivo de control táctil Active ES2947297T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/109781 WO2019090486A1 (zh) 2017-11-07 2017-11-07 一种触摸控制方法及装置

Publications (1)

Publication Number Publication Date
ES2947297T3 true ES2947297T3 (es) 2023-08-04

Family

ID=66438726

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17931613T Active ES2947297T3 (es) 2017-11-07 2017-11-07 Método y dispositivo de control táctil

Country Status (6)

Country Link
US (3) US11188225B2 (es)
EP (2) EP3683665B1 (es)
CN (3) CN114879893B (es)
AU (1) AU2017438902B2 (es)
ES (1) ES2947297T3 (es)
WO (1) WO2019090486A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3683665B1 (en) * 2017-11-07 2023-03-29 Huawei Technologies Co., Ltd. Touch control method and device
WO2020003862A1 (ja) * 2018-06-27 2020-01-02 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
CN110442263A (zh) * 2019-07-23 2019-11-12 深圳市锐尔觅移动通信有限公司 触控显示屏处理方法、装置、存储介质及电子设备
CN112525566B (zh) * 2019-09-17 2022-12-13 Oppo广东移动通信有限公司 设备测试方法、装置及电子设备
CN110727372B (zh) * 2019-09-29 2023-04-07 RealMe重庆移动通信有限公司 防误触方法、终端及存储介质
CN113127188A (zh) * 2019-12-31 2021-07-16 华为技术有限公司 一种性能优化方法与电子设备
CN111735450B (zh) * 2020-04-08 2022-10-21 腾讯科技(深圳)有限公司 一种惯性导航数据传输方法及装置
CN112000247A (zh) * 2020-08-27 2020-11-27 努比亚技术有限公司 一种触控信号处理方法、设备及计算机可读存储介质
CN116048305B (zh) * 2023-03-27 2023-06-16 南京芯驰半导体科技有限公司 一种触摸显示控制方法、装置、系统及芯片
CN117102085B (zh) * 2023-10-24 2024-01-26 江苏省电子信息产品质量监督检验研究院(江苏省信息安全测评中心) 一种电子元器件一体化检测分选设备

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611040A (en) * 1995-04-05 1997-03-11 Microsoft Corporation Method and system for activating double click applications with a single click
EP2437155A1 (en) 2006-10-26 2012-04-04 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
CN101676844A (zh) * 2008-09-18 2010-03-24 联想(北京)有限公司 触摸屏输入信息的处理方法及装置
US20100235784A1 (en) 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
US9563350B2 (en) * 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
US8358281B2 (en) 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US20130038623A1 (en) * 2010-02-26 2013-02-14 Capcom Co., Ltd. Computer device, storage medium and control method
CN102207783A (zh) 2010-03-31 2011-10-05 鸿富锦精密工业(深圳)有限公司 可自定义触摸动作的电子装置及方法
KR101361214B1 (ko) * 2010-08-17 2014-02-10 주식회사 팬택 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
CN102479039A (zh) * 2010-11-30 2012-05-30 汉王科技股份有限公司 一种触控设备的控制方法
CN102110220B (zh) * 2011-02-14 2013-01-23 宇龙计算机通信科技(深圳)有限公司 一种应用程序监控方法及装置
JP5295328B2 (ja) * 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
JP5865039B2 (ja) * 2011-11-30 2016-02-17 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
US20130249810A1 (en) * 2012-03-22 2013-09-26 Microsoft Corporation Text entry mode selection
CN102707882A (zh) * 2012-04-27 2012-10-03 深圳瑞高信息技术有限公司 虚拟图标触摸屏应用程序的操控转换方法及触摸屏终端
KR101431581B1 (ko) * 2012-06-22 2014-09-23 성균관대학교산학협력단 모바일 단말기를 기반으로 한 가상 게임 컨트롤러 장치 및 이를 이용한 원격 컨트롤 시스템
CN103713759A (zh) 2012-09-29 2014-04-09 宏景科技股份有限公司 触摸式输入装置及其控制方法、及产生定义档的方法
CN103272382B (zh) * 2013-05-23 2016-07-06 深圳市时讯互联科技有限公司 蓝牙游戏手柄模拟智能终端触摸屏控制游戏的方法及装置
US9561432B2 (en) * 2014-03-12 2017-02-07 Wargaming.Net Limited Touch control with dynamic zones
CN104492080A (zh) 2014-11-17 2015-04-08 深圳雷柏科技股份有限公司 一种游戏操控器摇杆灵敏度的调节方法及游戏操控器
CN104484111A (zh) * 2014-12-30 2015-04-01 小米科技有限责任公司 触摸屏的内容显示方法及装置
KR102211776B1 (ko) * 2015-01-02 2021-02-03 삼성전자주식회사 컨텐츠 선택 방법 및 그 전자 장치
US9772743B1 (en) * 2015-03-30 2017-09-26 Electronic Arts Inc. Implementation of a movable control pad on a touch enabled device
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
CN105045522A (zh) 2015-09-01 2015-11-11 广东欧珀移动通信有限公司 手持终端的触摸控制方法及装置
CN105094345B (zh) * 2015-09-29 2018-07-27 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN107305466A (zh) * 2016-04-19 2017-10-31 西安中兴新软件有限责任公司 一种移动终端的操作方法和装置
CN105959530A (zh) * 2016-04-26 2016-09-21 乐视控股(北京)有限公司 根据应用程序的个性化属性调用摄像头功能的方法和系统
CN106020678A (zh) * 2016-04-29 2016-10-12 青岛海信移动通信技术股份有限公司 一种在移动设备进行触控操作的方法和装置
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN108604158A (zh) 2016-12-01 2018-09-28 华为技术有限公司 一种终端应用操作区的自定制方法和终端
CN106775259A (zh) 2017-01-09 2017-05-31 广东欧珀移动通信有限公司 一种信息的处理方法、装置及终端
CN107203321B (zh) 2017-03-27 2019-04-16 网易(杭州)网络有限公司 游戏画面的显示控制方法及装置、存储介质、电子设备
CN107126698B (zh) 2017-04-24 2020-06-30 网易(杭州)网络有限公司 游戏虚拟对象的控制方法、装置、电子设备及可读介质
EP3683665B1 (en) * 2017-11-07 2023-03-29 Huawei Technologies Co., Ltd. Touch control method and device

Also Published As

Publication number Publication date
CN114816208A (zh) 2022-07-29
US11526274B2 (en) 2022-12-13
US20230112839A1 (en) 2023-04-13
US20200257445A1 (en) 2020-08-13
EP3683665B1 (en) 2023-03-29
EP3683665A4 (en) 2020-10-21
EP4163778A1 (en) 2023-04-12
CN110168487A (zh) 2019-08-23
AU2017438902A1 (en) 2020-04-30
CN110168487B (zh) 2022-04-05
CN114879893B (zh) 2023-04-25
CN114879893A (zh) 2022-08-09
WO2019090486A1 (zh) 2019-05-16
US11188225B2 (en) 2021-11-30
US11809705B2 (en) 2023-11-07
US20220004316A1 (en) 2022-01-06
AU2017438902B2 (en) 2022-02-03
EP3683665A1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
ES2947297T3 (es) Método y dispositivo de control táctil
US10558835B2 (en) Electronic device and method for acquiring fingerprint information
US10042442B2 (en) Accessory, electronic device, and method of processing input in electronic device
EP2989538B1 (en) Method and device for managing memory of user device
KR20170096408A (ko) 어플리케이션을 표시하는 방법 및 이를 지원하는 전자 장치
US20170024121A1 (en) Operating method for contents searching function and electronic device supporting the same
US20220283676A1 (en) Application Window Display Method and Terminal
US10346359B2 (en) Electronic device and method providing an object management user interface
KR102113201B1 (ko) 기능 실행 방법 및 이를 지원하는 전자 장치
US20190391690A1 (en) Electronic device and method for controlling display in electronic device
KR20170127809A (ko) 전자 장치 및 전자 장치에서의 정보 제공 방법
CN108780400B (zh) 数据处理方法及电子设备
US20170017305A1 (en) Electronic device and method for controlling the same
US10075798B2 (en) Method for providing audio and electronic device adapted to the same
JP7319431B2 (ja) アプリケーション機能の実施方法及び電子装置
US10514835B2 (en) Method of shifting content and electronic device
US10739981B2 (en) Tag input device of electronic device and control method thereof
WO2020000276A1 (zh) 一种快捷按键的控制方法及终端
KR20170009733A (ko) 전자 장치 및 그 제어 방법