ES2729245T3 - Botón virtual basado en sensor táctil ultrasónico - Google Patents
Botón virtual basado en sensor táctil ultrasónico Download PDFInfo
- Publication number
- ES2729245T3 ES2729245T3 ES16738329T ES16738329T ES2729245T3 ES 2729245 T3 ES2729245 T3 ES 2729245T3 ES 16738329 T ES16738329 T ES 16738329T ES 16738329 T ES16738329 T ES 16738329T ES 2729245 T3 ES2729245 T3 ES 2729245T3
- Authority
- ES
- Spain
- Prior art keywords
- processor
- electronic device
- ultrasonic sensor
- determination
- power mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
- G06F1/1692—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/043—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
- G06F3/0433—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Power Sources (AREA)
- Push-Button Switches (AREA)
Abstract
Un aparato, que comprende: un dispositivo electrónico (100) que incluye una primera superficie exterior (101); un sensor ultrasónico (106) dispuesto detrás de una primera parte de la primera superficie exterior; y medios para: procesar la señal recibida del sensor ultrasónico para adquirir datos de imagen de una superficie de un objeto o sustancia en contacto con la primera parte de la primera superficie exterior (1020); y realizar una primera determinación, tras determinar que los datos de imagen adquiridos de la superficie son característicos de una superficie texturizada estructuralmente, incluyendo una huella dactilar, de que los datos de imagen resultan de un contacto intencionado de la superficie con la primera parte (1030).
Description
DESCRIPCIÓN
Botón virtual basado en sensor táctil ultrasónico
REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS
[0001] La presente divulgación reivindica la prioridad con respecto a la solicitud de patente provisional de EE. UU. n.° 62/186,238, presentada el 29 de junio de 2015, titulada "ULTRASONIC FINGERPRINT SENSOR-BASED HOME BUTTON DESIGN [ DISEÑO DE BOTÓN DE INICIO BASADO EN SENSOR DE HUELLA DACTILAR ULTRASÓNICO]” y con respecto a la solicitud de patente de EE. UU. n.° 15/194,377, presentada el 27 de junio de 2016, titulada "ULTRASONIC TOUCH SENSOR-BASED VIRTUAL BUTTON [ BOTÓN VIRTUAL BASADO EN SENSOR TÁCTIL ULTRASÓNICO]”.
CAMPO TÉCNICO
[0002] La presente divulgación se refiere a un sensor ultrasónico, y, más en particular, a técnicas para el reconocimiento táctil con latencia baja usando un sensor ultrasónico dispuesto detrás de una superficie de interfaz de usuario de un dispositivo móvil.
DESCRIPCIÓN DE LA TECNOLOGÍA RELACIONADA
[0003] Los dispositivos móviles modernos, tales como los teléfonos inteligentes y las tabletas, incorporan una interfaz de usuario que incluye pantallas táctiles que se pueden configurar para que presenten cualquier número de botones virtuales, es decir, teclas o botones "multifunción" que se presentan como iconos, botones o teclas visibles que posibilitan que un usuario inicie una aplicación, realice una llamada, escriba un mensaje, etc. Además, dichos dispositivos incluyen comúnmente un número limitado de botones físicos, sensibles a la presión y accionados mecánicamente.
[0004] En ausencia de las presentes enseñanzas, los botones virtuales y los botones físicos tienen una capacidad limitada o nula para posibilitar que el dispositivo distinga entre los toques/pulsaciones de un dedo o un lápiz táctil que se inician de forma intencionada por un usuario y los toques y pulsaciones accidentales que se pueden producir cuando el dispositivo móvil está en el bolsillo, cartera o mochila de un usuario, por ejemplo. En consecuencia, un problema bien conocido con dichos dispositivos es la aparición de la llamada "marcación de bolsillo" en la que dichos toques y pulsaciones aleatorios provocan la marcación accidental de un tercero. De forma similar, dichos toques y pulsaciones aleatorios pueden provocar la activación no pretendida del dispositivo móvil y dar como resultado un consumo de energía innecesario.
[0005] Los problemas mencionados anteriormente se pueden exacerbar como resultado del deseo de maximizar el área de pantalla táctil ("cristal de protección") y para reducir la dependencia de los botones accionados mecánicamente.
SUMARIO
[0006] Cada uno de los sistemas, procedimientos y dispositivos de la presente divulgación tiene varios aspectos innovadores, ninguno de los cuales es el único responsable de los atributos deseables divulgados en el presente documento.
[0007] Un aspecto innovador de la materia objeto descrita en la presente divulgación se refiere a un dispositivo electrónico que incluye una primera superficie exterior, un sensor ultrasónico dispuesto detrás de una primera parte de la primera superficie exterior; y un procesador, estando asociado el procesador con uno o ambos del dispositivo electrónico y el sensor ultrasónico. El procesador está configurado para procesar una señal recibida del sensor ultrasónico para adquirir datos de imagen de un objeto o sustancia en contacto con la primera parte de la primera superficie exterior y realizar una primera determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la primera parte determinando si los datos de imagen son característicos o no de una huella dactilar o un lápiz táctil con patrón.
[0008] En algunos ejemplos, el sensor ultrasónico puede enviar la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja. En algunos ejemplos, cuando los dispositivos electrónicos están en el modo de energía baja, el procesador se puede configurar para cambiar el dispositivo electrónico del modo de energía baja a un modo de energía normal cuando la primera determinación es que la señal recibida del sensor ultrasónico está relacionada a un toque de control pretendido en la primera parte.
[0009] En algunos ejemplos, el dispositivo electrónico puede incluir uno o más de un sensor de luz ambiental, un sensor de presión, un sensor de temperatura ambiental y un detector de movimiento acoplados con uno o ambos del sensor ultrasónico y el procesador. El sensor ultrasónico puede transmitir la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja solo después de uno o más del (i) sensor de luz ambiental, que registra un cambio en el nivel de luz ambiental; (ii) sensor de presión, que registra un cambio en la presión; (iii) sensor
de temperatura ambiental, que registra un cambio en la temperatura ambiental; y (iv) detector de movimiento, que registra un movimiento del dispositivo electrónico.
[0010] En algunos ejemplos, la primera superficie exterior puede incluir una pantalla interactiva que tiene un cristal de protección y la primera parte de la al menos una superficie corresponde a la localización de un botón virtual. En algunos ejemplos, el botón virtual se puede localizar en el cristal de protección. En algunos ejemplos, el botón virtual puede ser un botón de inicio. Se dirige la atención al documento US 2012/071149 A1 que permite que se produzcan las operaciones de activación y desbloqueo usando un único evento, tal como una única pulsación de tecla. Además, se realiza una comprobación para garantizar que la activación se provocó por un toque humano, no un objeto. Un área de un dispositivo móvil se designa como un área de activación, que está separada de la pantalla táctil. Un usuario puede tocar el área de activación para activar tanto el dispositivo móvil desde un modo de suspensión como desbloquear el dispositivo móvil. El área de activación se puede integrar en la pantalla táctil, de modo que exista ninguna apariencia de un botón separado. La comprobación de huellas dactilares y/o los sensores de proximidad también se pueden integrar en el dispositivo móvil.
[0011] Otra técnica antecedente se divulga en los documentos US20100220900 y WO2009053956.
[0012] La invención es como se expone en las reivindicaciones independientes.
SUMARIO
[0013] De acuerdo con la presente invención, se proporcionan un aparato y un procedimiento, como se expone en las reivindicaciones independientes, respectivamente. Los modos de realización preferentes de la invención se describen en las reivindicaciones dependientes.
[0014] Cada uno de los sistemas, procedimientos y dispositivos de la presente divulgación tiene varios aspectos innovadores, ninguno de los cuales es el único responsable de los atributos deseables divulgados en el presente documento.
[0015] Un aspecto innovador de la materia objeto descrita en la presente divulgación se refiere a un dispositivo electrónico que incluye una primera superficie exterior, un sensor ultrasónico dispuesto detrás de una primera parte de la primera superficie exterior; y un procesador, estando asociado el procesador con uno o ambos del dispositivo electrónico y el sensor ultrasónico. El procesador está configurado para procesar una señal recibida del sensor ultrasónico para adquirir datos de imagen de un objeto o sustancia en contacto con la primera parte de la primera superficie exterior y realizar una primera determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la primera parte determinando si los datos de imagen son característicos o no de una huella dactilar o un lápiz táctil con patrón.
[0016] En algunos ejemplos, el sensor ultrasónico puede enviar la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja. En algunos ejemplos, cuando los dispositivos electrónicos están en el modo de energía baja, el procesador se puede configurar para cambiar el dispositivo electrónico del modo de energía baja a un modo de energía normal cuando la primera determinación es que la señal recibida del sensor ultrasónico está relacionada a un toque de control pretendido en la primera parte.
[0017] En algunos ejemplos, el dispositivo electrónico puede incluir uno o más de un sensor de luz ambiental, un sensor de presión, un sensor de temperatura ambiental y un detector de movimiento acoplados con uno o ambos del sensor ultrasónico y el procesador. El sensor ultrasónico puede transmitir la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja solo después de uno o más del (i) sensor de luz ambiental, que registra un cambio en el nivel de luz ambiental; (ii) sensor de presión, que registra un cambio en la presión; (iii) sensor de temperatura ambiental, que registra un cambio en la temperatura ambiental; y (iv) detector de movimiento, que registra un movimiento del dispositivo electrónico.
[0018] En algunos ejemplos, la primera superficie exterior puede incluir una pantalla interactiva que tiene un cristal de protección y la primera parte de la al menos una superficie corresponde a la localización de un botón virtual. En algunos ejemplos, el botón virtual se puede localizar en el cristal de protección. En algunos ejemplos, el botón virtual puede ser un botón de inicio.
[0019] En algunos ejemplos, la primera superficie exterior puede ser opuesta a una segunda superficie exterior que incluye una pantalla interactiva que tiene un cristal de protección y la primera parte de la primera superficie exterior corresponde a la localización de un botón virtual.
[0020] En algunos ejemplos, el toque de control pretendido puede ser un toque intencionado de un dedo de un usuario o un lápiz táctil en la primera parte de la primera superficie exterior.
[0021] En algunos ejemplos, el procesador puede realizar la primera determinación en un periodo de latencia de menos de 30 ms.
[0022] En algunos ejemplos, el procesador se puede configurar para distinguir de forma adaptativa entre un toque de control pretendido y uno o ambos de un contacto involuntario y aleatorio en la primera parte de la primera superficie exterior.
[0023] En algunos ejemplos, el procesador se puede configurar para distinguir de forma adaptativa, en un intervalo de temperaturas ambientales de al menos -40 °C a 40 °C, entre un toque de control pretendido y uno o ambos de un contacto involuntario y aleatorio en la primera parte de la primera superficie exterior.
[0024] En algunos ejemplos, el procesador se puede configurar para distinguir de forma adaptativa, en un intervalo de distancias, entre la primera superficie exterior y el sensor ultrasónico de al menos 0 um a 600 um.
[0025] En algunos ejemplos, el procesador se puede configurar para realizar la primera determinación ejecutando uno o más de regresión por máquina de soporte vectorial, un algoritmo de red neuronal contemporánea y una técnica de aprendizaje profundo.
[0026] En algunos ejemplos, el procesador se puede configurar para realizar la primera determinación ejecutando un proceso de detección adaptativa de dedos que incluye ejecutar, con el procesador, un algoritmo que incluye un proceso de aprendizaje con árbol de decisión de regresión entrenado. En algunos ejemplos, el proceso de aprendizaje con árbol de decisión puede funcionar en las salidas de uno o más de: un proceso de extracción de características de cresta; un proceso de refinamiento de orientación; un proceso de análisis de histograma de orientación; un proceso de análisis y cambio y correlación de orientación; una similitud estructural del proceso de análisis de entrada; y un proceso de análisis de patrón binario local.
[0027] De acuerdo con algunas implementaciones, un procedimiento incluye recibir, en un procesador de un dispositivo electrónico que incluye una primera superficie exterior, una señal de un sensor ultrasónico dispuesto detrás de una primera parte de la primera superficie exterior, y, con el procesador: procesar la señal recibida del sensor ultrasónico para adquirir datos de imagen de una superficie o sustancia en contacto con la primera parte de la primera superficie exterior; y realizar una primera determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la primera parte determinando si los datos de imagen son característicos o no de una huella dactilar o un lápiz táctil con patrón.
[0028] En algunos ejemplos, la primera parte de la primera superficie exterior puede corresponder a una localización de un botón virtual y el procedimiento puede incluir además ejecutar o abstenerse de ejecutar una función del botón virtual en base a la primera determinación.
[0029] De acuerdo con algunas implementaciones, un medio no transitorio legible por ordenador tiene programas informáticos almacenados en el mismo, incluyendo los programas informáticos instrucciones para provocar que un procesador de un dispositivo electrónico: procese una señal recibida de un sensor ultrasónico dispuesto detrás de una primera parte de una primera superficie exterior de un dispositivo electrónico para adquirir datos de imagen de una superficie o sustancia en contacto con la primera parte de la primera superficie exterior; y realizar una primera determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la primera parte determinando si los datos de imagen son característicos o no de una huella dactilar o un lápiz táctil con patrón.
[0030] De acuerdo con algunas implementaciones, un aparato incluye un dispositivo electrónico que incluye una primera superficie exterior, un sensor ultrasónico dispuesto detrás de una primera parte de la primera superficie exterior, y medios para: procesar la señal recibida del sensor ultrasónico para adquirir datos de imagen de una superficie o sustancia en contacto con la primera parte de la primera superficie exterior; y realizar una primera determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la primera parte determinando si los datos de imagen son característicos o no de una huella dactilar o un lápiz táctil con patrón.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0031] Los detalles de una o más implementaciones de la materia objeto descrita en la presente memoria descriptiva se exponen en la presente divulgación y en los dibujos adjuntos. Otras características, aspectos y ventajas serán evidentes a partir de la revisión de la divulgación. Adviértase que las dimensiones relativas de los dibujos y otros diagramas de la presente divulgación pueden no estar dibujados a escala. Los tamaños, espesores, disposiciones, materiales, etc., mostrados y descritos en la presente divulgación están realizados solo a modo de ejemplo y no se deben interpretar como limitantes. Los mismos números de referencia y designaciones en los diversos dibujos indican los mismos elementos.
Las figuras 1A-1C ilustran un ejemplo de un dispositivo electrónico de acuerdo con algunas implementaciones.
La figura 2 ilustra un ejemplo de un diagrama de flujo para distinguir un toque con el dedo de otras interacciones con el botón de inicio, de acuerdo con una implementación.
La figura 3 ilustra un ejemplo de un flujo de proceso para un proceso de detección de dedos (lápiz táctil), de acuerdo con una implementación.
La figura 4 ilustra un ejemplo de un proceso de extracción de características de cresta, de acuerdo con una implementación.
La figura 5 ilustra un ejemplo de un proceso de refinamiento de orientación, de acuerdo con una implementación.
La figura 6 ilustra un ejemplo de un proceso de histograma de orientación, de acuerdo con una implementación.
La figura 7 ilustra un ejemplo de un proceso de análisis de cambio de signo y correlación de orientación, de acuerdo con una implementación.
La figura 8 ilustra un ejemplo de un proceso de determinación de similitud estructural, de acuerdo con una implementación.
La figura 9 ilustra un ejemplo de un proceso de análisis de patrón binario local, de acuerdo con una implementación.
La figura 10 ilustra un ejemplo de un procedimiento para determinar si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido, de acuerdo con una implementación.
La figura 11 muestra un ejemplo de un diagrama de bloques de un dispositivo electrónico que tiene una pantalla interactiva de acuerdo con otra implementación.
La figura 12 muestra un ejemplo de un dispositivo electrónico que tiene una pantalla interactiva de acuerdo con otra implementación.
Las figuras 13A-13C incluyen otras implementaciones de ejemplo de un botón virtual.
DESCRIPCIÓN DETALLADA
[0032] Los detalles de una o más implementaciones de la materia objeto descrita en la presente memoria descriptiva se exponen en la presente divulgación, que incluye la descripción y reivindicaciones en el presente documento, y en los dibujos adjuntos. Otras características, aspectos y ventajas serán evidentes a partir de la revisión de la divulgación. Adviértase que las dimensiones relativas de los dibujos y otros diagramas de la presente divulgación pueden no estar dibujados a escala. Los tamaños, espesores, disposiciones, materiales, etc., mostrados y descritos en la presente divulgación están realizados solo a modo de ejemplo y no se deben interpretar como limitantes.
[0033] Cada uno de los sistemas, procedimientos y dispositivos de la presente divulgación tiene varios aspectos innovadores, ninguno de los cuales es el único responsable de los atributos deseables divulgados en el presente documento. Un aspecto innovador de la materia objeto descrita en la presente divulgación se puede implementar en un dispositivo electrónico que tenga un sensor ultrasónico dispuesto detrás de una superficie exterior del dispositivo electrónico. El dispositivo electrónico puede incluir un procesador configurado para recibir y analizar señales del sensor ultrasónico para distinguir un toque intencionado de un dedo o un lápiz táctil de una pulsación involuntaria o aleatoria de un objeto o superficie distinto del dedo o el lápiz táctil. En algunas implementaciones, el procesador funciona de la manera mencionada anteriormente, independientemente de si o no el dispositivo electrónico está encendido ("activo" o en un "modo de energía normal") o en un modo de energía baja ("suspensión"). En algunas implementaciones, el sensor ultrasónico puede estar próximo a una parte de la superficie exterior correspondiente a una localización de "botón de inicio". Como resultado, se pueden iniciar las importantes funciones del botón de inicio con una latencia imperceptible incluso cuando el dispositivo electrónico está en el modo de suspensión mediante un toque intencionado del usuario, se pueden eliminar y los errores de marcación de bolsillo al menos en gran parte.
[0034] Las figuras 1A-1C ilustran un ejemplo de un dispositivo electrónico de acuerdo con algunas implementaciones. La figura 1A muestra un ejemplo de un diagrama de bloques de un dispositivo electrónico que tiene una pantalla interactiva de acuerdo con una implementación. El dispositivo electrónico 100 (que puede ser, por ejemplo, un teléfono inteligente u otro dispositivo electrónico personal) incluye un procesador 104 y tiene una superficie exterior delantera 101 que incluye una pantalla interactiva 102. La pantalla interactiva 102 puede ser una pantalla táctil configurada para ocupar una parte sustancial de la superficie delantera 101 del dispositivo electrónico 100. En algunas implementaciones, la pantalla interactiva 102 puede tener un área que sea sustancialmente coextensiva con un área de la superficie delantera 101. La pantalla interactiva 102 se puede configurar como una pantalla IMOD, u otro tipo de pantalla, tal como plasma, electroluminiscente (EL), diodo orgánico emisor de luz (OLED), nemática supertorcida (STN) o transistor de película delgada (TFT), pantalla de cristal líquido (LCD), o una pantalla no plana, tal como un CRT u otro dispositivo tubular. El procesador 104 se puede configurar para controlar una salida de la pantalla interactiva 102, con capacidad de respuesta, al menos en parte, a las entradas de usuario, que pueden incluir toques
o gestos por un miembro del usuario, tales como un dedo, una mano o un objeto de mano (por ejemplo, un lápiz táctil) o similares.
[0035] En la implementación ilustrada, el procesador 104 está acoplado comunicativamente con un sensor ultrasónico 106. Un ejemplo de un sensor ultrasónico adecuado se describe en la pat. de EE. UU. n.° 7,739,912, titulada "Ultrasonic Fingerprint Scanning Utilizing a Plane Wave", cedida al cesionario de la presente invención. El sensor ultrasónico 106 se puede disponer detrás de la superficie delantera 101 del dispositivo electrónico 100 y próximo a una localización 110 (denominada en el presente documento una "localización de botón") dispuesta en un perímetro de la superficie delantera 101 del dispositivo electrónico 100. En la implementación ilustrada, la localización de botón 110 se dispone en un perímetro de la pantalla interactiva 102. La pantalla interactiva 102 se puede configurar para presentar cualquier número de iconos habilitados por el tacto y/o contenido de imagen visible en varias localizaciones, incluyendo una "multifunción" o botón virtual en o dentro de la localización de botón 110. En otras implementaciones, la localización de botón 110 puede estar en el exterior del perímetro de la pantalla interactiva 102 (es decir, "fuera del cristal"). En dichas implementaciones, la superficie delantera del dispositivo electrónico 100 próxima a la localización 110 puede no ser transparente. Próxima a la localización 110, el material de superficie delantera del dispositivo electrónico 100 puede ser de cristal, plástico o aluminio, por ejemplo. El sensor ultrasónico 106 se puede configurar para obtener características de imagen de una superficie u objeto dispuesto, en o próximo a la superficie delantera 101, cerca de la localización 110. Como se advierte anteriormente, el sensor ultrasónico se puede disponer detrás de la superficie delantera 101 y se puede configurar para obtener características de imagen a través de un espesor de superficie delantera de hasta aproximadamente 600 pm, independientemente de si la superficie delantera es de cristal o aluminio, por ejemplo. Dicho intervalo de espesor de superficie puede resultar de la colocación de placas de diversos espesores que podrían estar hechas de plástico, cristal de protección, aluminio u otro metal, o espesor variable debido a la presencia o ausencia de rebajes durante el proceso de fabricación y/o debido a la colocación de capas adicionales, por ejemplo, protectores de pantalla más tarde durante el uso del dispositivo.
[0036] Independientemente de si la localización de botón 110 está en el interior o en el exterior del perímetro de la pantalla interactiva 102, la localización de botón 110 se puede configurar para proporcionar una funcionalidad de interfaz táctil para un usuario del dispositivo electrónico 100. En algunas implementaciones, la localización de botón 110 puede delinear un botón de inicio del dispositivo electrónico 110. El dispositivo electrónico 100, de acuerdo con las técnicas divulgadas actualmente, se puede configurar para distinguir de forma adaptativa, por ejemplo, un toque intencionado de un dedo del usuario o lápiz táctil en la localización de botón 110 , y una pulsación aleatoria e involuntaria mediante un objeto o superficie distinto del dedo del usuario o lápiz táctil.
[0037] En la figura 1B, el dispositivo electrónico 100 se ilustra como que está en un modo de funcionamiento (un modo de "energía normal" o "activo") en el que se ilumina la pantalla y cualquiera de una pluralidad de botones virtuales 120 puede ser visible y se puede accionar por el tacto. Uno o más de los botones virtuales 120 se puede accionar por el tacto por medio de sensores ultrasónicos adicionales (no ilustrados). De forma alternativa o además, algunos o todos de los botones virtuales 120 se pueden accionar por el tacto por medio de otras técnicas, tales como pantallas táctiles resistivas, capacitivas y capacitivas proyectadas (PCT). En algunas implementaciones, algunos o todos de los botones virtuales 120 se pueden accionar por el tacto usando técnicas ópticas, tales como las divulgadas en la patente de EE. UU. 9.041.690 y la publicación de patente de EE. UU. 2015-0253931, cada una cedida al cesionario de la presente invención e incorporada por la presente en su totalidad en la presente divulgación.
[0038] En la figura 1C, el dispositivo electrónico 100 se ilustra como que está en un modo de energía baja (por ejemplo, un modo de suspensión, o modo de ahorro de energía similar) en el que la pantalla no se ilumina y los botones virtuales no son visibles. Sin embargo, en algunos modos de realización, se puede proporcionar la funcionalidad de un botón virtual localizado, por ejemplo, en la localización de botón 110 incluso cuando el dispositivo electrónico 100 está en el modo de energía baja. Por ejemplo, el sensor ultrasónico 106, que puede tener un consumo de corriente del orden de 10-100 microamperios, se puede configurar para obtener datos de imagen asociados con la localización de botón 110 y enviar las señales correspondientes al procesador, si el dispositivo electrónico 100 está o no en el modo de energía baja. Como resultado, el procesador 104 se puede configurar para "activar" el dispositivo electrónico de inmediato tras el contacto de un dedo del usuario o lápiz táctil próximo a la localización de botón 110. De acuerdo con las técnicas divulgadas actualmente, el proceso de "activación" se produce con una latencia casi imperceptible, (25-50 ms), de modo que el dispositivo electrónico 100 está disponible casi de forma instantánea para su uso, tras ser tocado por el usuario en la localización de botón 110.
[0039] En algunas implementaciones, el procesador 104 está configurado para procesar señales enviadas desde el sensor ultrasónico 106 para adquirir datos de imagen de una superficie o una sustancia en contacto con la localización de botón 110. El procesador 104 se puede configurar para realizar una determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la localización de botón 110. Por ejemplo, el procesador 104 puede determinar si los datos de imagen son característicos o no de una huella dactilar o un lápiz con patrón, a diferencia de, por ejemplo, el aire, una tela, cuero u objetos aleatorios. En base a la determinación, el procesador 104 puede "activar" el dispositivo electrónico 100, cuando se determina que los datos de imagen indican un toque de control pretendido.
[0040] La figura 2 ilustra un ejemplo de un diagrama de flujo para distinguir un toque con el dedo de otras interacciones con el botón de inicio, de acuerdo con una implementación. De acuerdo con el procedimiento 200 ilustrado, se puede recibir una señal de entrada del sensor ultrasónico en el bloque 210. Por ejemplo, el procesador 104 puede recibir señales enviadas desde el sensor ultrasónico 106. La señal de entrada puede resultar de un contacto físico o "toque" de un dedo, lápiz táctil u otro objeto con el cristal de protección próximo a la localización de botón 110. En algunas implementaciones, el procesador 104 puede ser o incluir un procesador de propósito general del dispositivo electrónico 100 o puede ser un procesador de propósito especial asociado con y/o colocalizado con el sensor ultrasónico 106. En el bloque 220, la señal de entrada puede experimentar un procesamiento para adquirir una imagen de la superficie en contacto con el botón de inicio
[0041] En el bloque 230, se puede ejecutar un proceso para la detección adaptativa de un toque de control pretendido, como se describe con más detalle a continuación en el presente documento. El proceso de detección adaptativa puede ser un algoritmo que se ejecuta mediante el procesador 104. El algoritmo puede funcionar en base a una imagen adquirida de la superficie en contacto con la localización de botón 110. La imagen adquirida puede incluir una o más tramas de datos de imagen.
[0042] En el bloque 240, se puede realizar una determinación sobre si la imagen adquirida está asociada con un toque de control pretendido. En algunas implementaciones, como se describe en detalle a continuación en el presente documento, la determinación se puede basar en si la imagen adquirida incluye o no rasgos característicos de una huella dactilar. De forma alternativa o además, en algunas implementaciones, la imagen adquirida se puede comparar con características de superficie conocidas de un lápiz táctil. En dichas implementaciones, la comparación puede dar como resultado una decisión sobre si la imagen adquirida se reconoce o no como característica del lápiz táctil.
[0043] Si la determinación en el bloque 240 es que la imagen adquirida incluye rasgos característicos de un toque de control pretendido, el procedimiento puede continuar al bloque 250 y ejecutar una función de un botón virtual que se asocia con la localización de botón 110. En algunas implementaciones, el botón virtual puede ser un botón de inicio del dispositivo electrónico 100, y el bloque 250 puede incluir el cambio del dispositivo electrónico de un modo de suspensión a un modo activo en el que se presenta una pantalla de inicio del dispositivo electrónico 100. De forma alternativa o además, el botón virtual se puede relacionar con otras funciones del dispositivo electrónico 100 y el bloque 250 puede incluir la activación de una o más de esas otras funciones (por ejemplo, realizar una llamada telefónica, abrir un navegador web, presentar un calendario o lista de tareas, etc.). Por otra parte, si la determinación en el bloque 240 es que la imagen adquirida no es característica de una huella dactilar o lápiz táctil, el procedimiento puede continuar al bloque 260 con una determinación de no ejecutar ninguna función del botón virtual.
[0044] La figura 3 ilustra un ejemplo de un flujo de proceso para un proceso de detección de dedos (lápiz táctil), de acuerdo con una implementación. El procedimiento 300, que se puede incluir en el bloque 230 de la figura 2, ilustra una secuencia de nivel alto de etapas de procesamiento, estando ilustrada cada una de las cuales con más detalle en los siguientes dibujos. La imagen ultrasónica (que puede ser una salida del bloque 220 de la figura 2) puede experimentar un procesamiento en el bloque 310, un proceso de extracción de características de cresta ilustrado en la figura 4. En paralelo, la imagen ultrasónica también puede experimentar un procesamiento para determinar la similitud estructural de entrada, bloque 350, ilustrada en la figura 8, y para determinar patrones binarios locales, bloque 360, ilustrados en la figura 9. Las salidas del proceso de extracción de características de cresta 310 pueden experimentar un bloque de proceso de refinamiento de orientación 320, ilustrado en la figura 5. Las salidas del proceso de refinamiento de orientación 320 pueden experimentar un procesamiento en paralelo mediante un bloque de proceso de histograma de orientación 330, ilustrado en la figura 6, y mediante un proceso de cambio de signo y correlación de orientación, bloque 340, ilustrado en la figura 7. Las salidas de los bloques de proceso 330, 340, 350 y 360 pueden experimentar un proceso de clasificación de características, bloque 370, descrito con más detalle a continuación en el presente documento.
[0045] La figura 4 ilustra un ejemplo de un proceso de extracción de características de cresta, de acuerdo con una implementación. El proceso de extracción de características de cresta ilustrado se puede incluir en el bloque 310 de la figura 3, por ejemplo. De acuerdo con algunas implementaciones, los vectores gradiente (Gij) se pueden calcular tomando derivadas parciales en cada píxel en la imagen ultrasónica adquirida. Si la imagen ultrasónica adquirida es de una huella dactilar (o un lápiz táctil con características de superficie conocidas), los vectores gradiente identificarán la tasa espacial más alta de variación en la intensidad del gris que puede estar correlacionada con la orientación de la línea de crestas de huella dactilar. Como se ilustra en la figura 4, si la imagen ultrasónica adquirida es del aire o de una superficie no caracterizada por crestas similares a huella dactilar, los vectores gradiente tendrán un patrón de orientación ("mapa de orientación") distinguible del patrón de orientación de los vectores gradientes típicos de una huella dactilar. "Coherencia", como se usa el término en el presente documento, se refiere a la fiabilidad de la estimación de la orientación que calcula la intensidad de un gradiente promedio en la distribución de la orientación local. "Orientación" (0), como se usa el término en el presente documento, se define en términos de los vectores gradiente Gxx. Gyy y Gxy de acuerdo con la figura 4, ecuación Ec. (1). La intensidad mínima de píxeles Imín y la intensidad máxima de píxeles Imáx se pueden calcular en términos de los vectores gradiente y 0 como se muestra en la figura 4, ecuaciones Ec. (2) y Ec. (3). La coherencia y la fiabilidad se pueden calcular en términos de Imín e Imáx, como se muestra en la figura 4, ecuaciones Ec. (4) y Ec. (5).
[0046] La figura 5 ilustra un ejemplo de un proceso de refinamiento de orientación, de acuerdo con una implementación. El proceso de refinamiento de orientación ilustrado se puede incluir en el bloque 320 de la figura 3, por ejemplo. En algunas implementaciones, el mapa de orientación (detalle A) generado mediante el proceso ilustrado en la figura 4 se puede refinar además seleccionando una dirección de orientación dominante como una característica de orientación. Por ejemplo, la orientación dominante se puede seleccionar, como se ilustra, en base a la evaluación de los datos de histograma (detalle B), y usando un máximo del histograma para generar un mapa de orientación refinado (detalle C). Aunque, en el ejemplo ilustrado el proceso de refinamiento de orientación se ejecuta en el dominio espacial, el proceso de refinamiento de orientación se ejecuta en el dominio de frecuencia.
[0047] La figura 6 ilustra un ejemplo de un proceso de histograma de orientación, de acuerdo con una implementación. El proceso de histograma de orientación ilustrado se puede incluir en el bloque 330 de la figura 3, por ejemplo. Una vez seleccionada la dirección de orientación dominante, como se ilustra en la figura 5, la orientación se puede asignar a una clase del histograma (detalle D). Si la imagen ultrasónica adquirida es del aire o de una superficie no caracterizada por crestas similares a huella dactilar, un histograma correspondiente (detalle E) tendrá ruido en relación con el histograma del detalle D.
[0048] La figura 7 ilustra un ejemplo de un proceso de análisis de cambio de signo y correlación de orientación, de acuerdo con una implementación. El proceso de análisis de cambio de signo y correlación de orientación ilustrado se puede incluir en el bloque 340 de la figura 3, por ejemplo. En el ejemplo ilustrado, un mapa de orientación de huella dactilar 701 está configurado como una matriz de vectores, teniendo la matriz siete filas y 17 columnas. Se puede realizar un análisis de la correlación relativa de la orientación de vectores adyacentes en cada fila, como se ilustra para las filas 1, 3, 5 y 7. Se puede observar que la orientación de vectores adyacentes para el mapa de orientación de huella dactilar 701 tiene una fuerte correlación (la mayoría de los vectores tienen una pendiente similar a los vectores vecinos). También se puede observar que se produce un único cambio en el signo de la pendiente en cada fila en aproximadamente la 16a o 17a columna. En claro contraste, un mapa de orientación de la imagen del aire 702, cuando se somete al mismo análisis, muestra una correlación mucho menor entre vectores adyacentes y cambios mucho más frecuentes en el signo de la pendiente.
[0049] Haciendo referencia de nuevo a la figura 3, se puede observar que el proceso de histograma de orientación 330 y el proceso de análisis de cambio de signo y correlación de orientación 340 se pueden realizar en paralelo en las salidas del proceso de refinamiento de orientación 320. Además, estos procesos, en la implementación ilustrada, se realizan en una o más características locales de (es decir, una parte de) la imagen ultrasónica.
[0050] La figura 8 ilustra un ejemplo de un proceso de determinación de similitud estructural, de acuerdo con una implementación. El proceso de determinación de similitud estructural ilustrado se puede incluir en el bloque 350 de la figura 3, por ejemplo. En el ejemplo ilustrado, se computa un histograma, en el bloque 810, para una imagen ultrasónica de entrada y se compara en el bloque 820, con una salida de histograma por el bloque 830. La salida de histograma por el bloque 830 se computa en base a la imagen de entrada después del muestreo ascendente y del muestreo descendente, reduciendo el muestreo ascendente y el muestreo descendente los detalles de la imagen. Cuando la comparación realizada en el bloque 820 muestra una similitud relativamente alta entre el histograma computado por el bloque 810 en el histograma computado por el bloque 830, se puede inferir que la imagen de entrada tiene relativamente menos correlación estructural. Por ejemplo, es más probable que la imagen sea del aire o de una superficie que tenga una textura de superficie más aleatoria. Por otra parte, cuando la comparación realizada en el bloque 820 muestra una similitud relativamente pequeña entre el histograma computado por el bloque 810 en el histograma computado por el bloque 830, se puede inferir que la imagen de entrada tiene relativamente más correlación estructural. Por ejemplo, es más probable que la imagen sea de una huella dactilar u otra superficie que tenga una textura bien estructurada.
[0051] La figura 9 ilustra un ejemplo de un proceso de análisis de patrón binario local. El proceso de análisis de patrón binario local ilustrado se puede incluir en el bloque 360 de la figura 3, por ejemplo. En la implementación ilustrada, una imagen ultrasónica de entrada se puede procesar para formar imágenes de patrón binario local (LBP) asociadas. Más en particular, se procesa una imagen de huella dactilar 901 para formar una imagen LBP 903. De forma similar, la imagen del aire 902 se procesa para formar la imagen LBP 904. Las imágenes LBP 903 y 904 se pueden distinguir más claramente que las imágenes originales 901 y 902 como que están asociadas, respectivamente, con una imagen de huella dactilar y una imagen del aire.
[0052] Haciendo referencia de nuevo a la figura 3, se puede observar que el proceso de determinación de similitud estructural 350 y el proceso de análisis de patrón binario local 360 se pueden realizar en paralelo en la imagen ultrasónica. Además, estos procesos se realizan, en la implementación ilustrada, en características globales de (es decir, sustancialmente todas) la imagen ultrasónica.
[0053] Haciendo referencia todavía a la figura 3, las salidas de los bloques 330, 340, 350 y 360 pueden estar sujetas a un proceso de aprendizaje con árbol de decisión en el bloque 370. En algunas implementaciones, por ejemplo, se puede realizar un análisis con árbol de regresión de estas salidas. Una salida del bloque de análisis con árbol de regresión 370 puede ser una puntuación numérica indicativa de una probabilidad de que una imagen recibida sea de una huella dactilar u otra superficie texturizada estructuralmente, a diferencia del aire o una superficie texturizada
aleatoriamente. Por ejemplo, la puntuación numérica puede ser un número entre cero y uno, en la que uno indica una identificación de confianza alta de que una imagen sea de una huella dactilar u otra superficie texturizada estructuralmente, y cero indica una confianza alta de que la imagen sea aire o una superficie texturizada aleatoriamente. Dichos árboles de regresión pueden generar puntuaciones de calidad de entrada o medidas de probabilidad de aparición del objeto de entrada.
[0054] En algunas implementaciones, el flujo de proceso ilustrado en la figura 3 se puede ejecutar para un gran número de muestras como parte de un procedimiento de "entrenamiento" en el que un algoritmo se entrena en diversas configuraciones ambientales y de componentes físicos. Se apreciará que la calidad y la variación de trama a trama de una imagen ultrasónica se pueden ver afectadas por las características de los componentes físicos de un sensor ultrasónico, las variaciones de temperatura, humedad, ruido, retardo de la puerta del intervalo del sensor y el ajuste de la frecuencia, así como las características del cristal de protección. El procedimiento de entrenamiento, que se puede ejecutar una vez o periódicamente, puede mejorar la precisión de la determinación del algoritmo de si una imagen adquirida es característica o no de una huella dactilar o lápiz táctil a pesar de la presencia de diversas cantidades de polvo, suciedad, humedad y temperaturas extremas en un intervalo que incluye al menos -40 °C a 40 °C. Los resultados del entrenamiento se pueden almacenar como una tabla fragmentada o árbol de regresión, por ejemplo.
[0055] Los autores de la presente invención han descubierto que una detección adaptativa de un algoritmo de toque de control pretendido configurado de acuerdo con la presente divulgación puede realizar una determinación altamente precisa (por ejemplo, con aproximadamente un 95-98 % de precisión) de si o no las imágenes adquiridas características de una huella dactilar o un lápiz táctil con una latencia muy baja (de aproximadamente 10-15 ms, en algunas implementaciones). Como resultado, las funciones de un botón virtual se pueden accionar con una latencia baja tras un toque de un dedo del usuario o lápiz táctil con patrón y no accionar mediante toques de otros objetos o materiales, tales como, por ejemplo, cuero, tela o aire.
[0056] En algunas implementaciones, las técnicas divulgadas actualmente se pueden combinar con técnicas de autenticación de huellas dactilares y/o técnicas de detección de la vivacidad, tales como las divulgadas en la publicación de patente de EE. UU. número 2016/007098, cedida al cesionario de la presente invención, e incorporada por la presente en la presente divulgación en su totalidad.
[0057] La figura 10 ilustra un ejemplo de un procedimiento para determinar si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido, de acuerdo con una implementación. Como se describe anteriormente en el presente documento, los datos de imagen se pueden adquirir mediante un procesador a partir de señales enviadas mediante un sensor ultrasónico dispuesto detrás de una primera parte de una superficie delantera de un dispositivo electrónico. En la implementación ilustrada, el procedimiento 1000 incluye un bloque 1010 para recibir, con el procesador, una señal del transductor ultrasónico.
[0058] El procedimiento continúa, en el bloque 1020, con el procesamiento de la señal recibida del sensor ultrasónico para adquirir datos de imagen de una superficie o sustancia en contacto con la primera parte de la superficie delantera.
[0059] El procedimiento finaliza, en el bloque 1030, realizando una determinación si los datos de imagen adquiridos están relacionados o no con un toque de control pretendido en la primera parte determinando si los datos de imagen son característicos o no de una huella dactilar o un lápiz táctil con patrón.
[0060] La figura 11 muestra un ejemplo de un diagrama de bloques de un dispositivo electrónico que tiene una pantalla interactiva de acuerdo con otra implementación. El dispositivo electrónico 1100 (que puede ser, por ejemplo, un teléfono inteligente u otro dispositivo electrónico personal) incluye un procesador 1104 y tiene una superficie delantera 1101 que incluye una pantalla interactiva 1102. El procesador 104 se puede configurar para controlar una salida de la pantalla interactiva 1102 , con capacidad de respuesta, al menos en parte, a las entradas de usuario, que pueden incluir toques o gestos por un miembro del usuario, tales como un dedo, una mano o un objeto de mano (por ejemplo, un lápiz táctil) o similares.
[0061] En la implementación ilustrada, el procesador 1104 está acoplado comunicativamente con un sensor ultrasónico 1106 y a un sensor ambiental 1108. El sensor ambiental 1108 puede ser un dispositivo de energía baja configurado para detectar, por ejemplo, un cambio en la presión, un cambio en la luz o temperatura ambiental o para detectar el movimiento del dispositivo electrónico 1100. En dicha implementación, el sensor ultrasónico se puede configurar para transmitir señales al procesador, si el dispositivo electrónico está o no en un modo de energía baja, solo después de que el sensor ambiental 1108 registre un cambio en la presión, la luz o temperatura ambiental, o detecte un movimiento del dispositivo electrónico.
[0062] La figura 12 muestra un ejemplo de un dispositivo electrónico que tiene una pantalla interactiva de acuerdo con otra implementación. El dispositivo electrónico 1200 (que puede ser, por ejemplo, un teléfono inteligente u otro dispositivo electrónico personal) tiene una superficie delantera 1201 que incluye una pantalla interactiva 1202. Una salida de la pantalla interactiva 1102 puede tener capacidad de respuesta, al menos en parte, a las entradas de usuario, que pueden incluir toques o gestos por un miembro del usuario, tales como un dedo, una mano o un objeto de mano (por ejemplo, un lápiz táctil) o similares.
[0063] Como se describe anteriormente en el presente documento, un sensor ultrasónico se puede disponer detrás de la superficie delantera 1201 del dispositivo electrónico 1200 y próximo a una localización 1210 dispuesta en un perímetro de la superficie delantera 1201 del dispositivo electrónico 100. De forma alternativa, o además, un sensor ultrasónico se puede disponer detrás de una superficie trasera 1231 del dispositivo electrónico 1200 y próximo a una localización 1230. En algunas implementaciones, la superficie trasera 1231 puede ser una superficie de cristal opaco, plástico o metal. Se puede proporcionar la funcionalidad de un botón virtual localizado en la localización 1230 incluso cuando el dispositivo electrónico 1200 está en un modo de energía baja. Por ejemplo, el sensor ultrasónico se puede configurar para obtener datos de imagen asociados con la localización de botón 1230 y enviar las señales correspondientes al procesador, si el dispositivo electrónico 1200 está o no en el modo de energía baja. Como resultado, un procesador se puede configurar para "activar" el dispositivo electrónico de inmediato tras un contacto inicial de un dedo del usuario o lápiz táctil próximo a la localización de botón 1230. En algunas implementaciones, el procesador se puede configurar para accionar una cámara 1240 tras un segundo contacto de un dedo del usuario o lápiz táctil próximo a la localización de botón 1230.
[0064] Puesto que el sensor ultrasónico contemplado por las técnicas divulgadas actualmente se puede hacer funcionar para obtener datos de imagen si la superficie exterior es transparente o no y para una variedad sustancial de materiales y espesores de superficie exterior, una funcionalidad de botón virtual del tipo divulgado anteriormente se puede proveer para una variedad de dispositivos, si el dispositivo incluye o no un cristal de protección. Las figuras 13A-13C incluyen otras implementaciones de ejemplo de un botón virtual. En cada una de las implementaciones ilustradas, uno o más botones virtuales 1310 se disponen en un dispositivo electrónico. Cada botón virtual está asociado con un sensor ultrasónico respectivo (no ilustrado) dispuesto próximo al botón virtual. En la implementación de ejemplo ilustrada en la figura 13A, se muestra un botón virtual 1310 dispuesto en un cristal de protección de un reloj inteligente. De forma alternativa, o además, el botón virtual 1310 se puede disponer fuera del cristal de protección, por ejemplo, próximo a una pulsera opaca como se ilustra en la figura 13B. También se puede proporcionar una funcionalidad de botón virtual en otros dispositivos vestibles, por ejemplo, el botón virtual 1310 se puede disponer en gafas inteligentes como se ilustra, por ejemplo, en la figura 13c . Además, las técnicas divulgadas se pueden adaptar para proporcionar una funcionalidad de botón virtual para otros dispositivos, incluyendo, por ejemplo un inhalador inteligente, como se ilustra en la figura 13D.
[0065] Aún en otra implementación, un botón virtual como se divulga anteriormente en el presente documento se puede localizar en un dispositivo de internet de las cosas (IOT), por ejemplo, un ratón de ordenador (ahorrar energía al pasar al modo de energía baja cuando uno no está en funcionamiento), pulsera de acondicionamiento físico, quiosco y/o termostato, equipos para el hogar, tales como televisores u otros dispositivos electrónicos de entretenimiento. En una implementación, uno o más botones virtuales se pueden disponer en un volante o una o más de otras superficies en el interior de un vehículo, por lo que si un usuario toca el botón virtual, las entradas del botón virtual pueden provocar que un procesador dé preferencia a la conducción manual sobre un modo autónomo o semiautónomo de un coche o viceversa.
[0066] Por tanto, las técnicas mejoradas para distinguir, con una latencia extremadamente baja, un toque de un dedo o un lápiz táctil en un cristal de protección de un dispositivo móvil, de una pulsación involuntaria en el cristal de protección de un objeto o superficie distinto del dedo o el lápiz táctil. Se apreciará que se puede contemplar una serie de configuraciones y técnicas de fabricación alternativas.
[0067] Como se usa en el presente documento, una frase que hace referencia a "al menos uno de" una lista de elementos se refiere a cualquier combinación de esos elementos, incluyendo miembros únicos. Por ejemplo, "al menos uno de: a, b o c" pretende abarcar: a, b, c, a-b, a-c, b-c y a-b-c.
[0068] Las diversas lógicas, bloques lógicos, módulos, circuitos y procesos algorítmicos ilustrativos, descritos en conexión con las implementaciones divulgadas en el presente documento, se pueden implementar como componentes físicos electrónicos, programas informáticos o combinaciones de ambos. La intercambiabilidad de los componentes físicos y los programas informáticos se ha descrito, en general, en términos de funcionalidad, e ilustrado en los diversos componentes, bloques, módulos, circuitos y procesos ilustrativos descritos anteriormente. Si dicha funcionalidad se implementa en los componentes físicos o programas informáticos depende de la aplicación particular y restricciones de diseño impuestas en el sistema al completo.
[0069] Los componentes físicos y aparatos de procesamiento de datos usados para implementar las diversas lógicas, bloques lógicos, módulos y circuitos ilustrativos descritos en conexión con los aspectos divulgados en el presente documento se pueden implementar o realizar con un procesador de propósito general de único chip o de múltiples chips, un procesador de señales digitales (DSP), un circuito integrado específico de la aplicación (ASIC), una matriz de puertas programables en campo (FPGA) u otro dispositivo de lógica programable, lógica de transistor o de puerta discreta, componentes físicos discretos o cualquier combinación de los mismos diseñada para realizar las funciones descritas en el presente documento. Un procesador de propósito general puede ser un microprocesador o cualquier procesador, controlador, microcontrolador o máquina de estado convencional. Un procesador también se puede implementar como una combinación de dispositivos informáticos, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo de d Sp o
cualquier otra configuración de este tipo. En algunas implementaciones, se pueden realizar procesos y procedimientos particulares mediante circuitos que sean específicos para una función dada.
[0070] En uno o más aspectos, las funciones descritas se pueden implementar en los componentes físicos, circuitos electrónicos digitales, programas informáticos, soportes lógicos inalterables, incluyendo las estructuras divulgadas en la presente memoria descriptiva y equivalentes estructurales de las mismas, o en cualquier combinación de los mismos. Las implementaciones de la materia objeto descrita en la presente memoria descriptiva también se pueden implementar como uno o más programas informáticos, es decir, uno o más módulos de instrucciones de programa informático, codificados en un medio de almacenamiento informático para su ejecución mediante o para controlar el funcionamiento de los aparatos de procesamiento de datos.
[0071] Si se implementan en programas informáticos, las funciones se pueden almacenar en o transmitir como una o más instrucciones o código en un medio legible por ordenador, tal como un medio no transitorio. Los procesos de un procedimiento o algoritmo divulgados en el presente documento se pueden implementar en un módulo de programas informáticos ejecutable por procesador que pueda residir en un medio legible por ordenador. Los medios legibles por ordenador incluyen tanto medios de almacenamiento informático como medios de comunicación que incluyen cualquier medio que se pueda habilitar para transferir un programa informático de un lugar a otro. Los medios de almacenamiento pueden ser cualquier medio disponible al que se pueda acceder mediante un ordenador. A modo de ejemplo, y no limitación, los medios no transitorios pueden incluir RAM, ROM, EEPROM, CD-ROM u otro almacenamiento de disco óptico, almacenamiento de disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que se pueda usar para almacenar el código de programa deseado en forma de instrucciones o estructuras de datos y al que se pueda acceder mediante un ordenador. También, cualquier conexión se puede denominar apropiadamente medio legible por ordenador. Los discos, como se usa en el presente documento, incluyen un disco compacto (CD), disco láser, disco óptico, disco versátil digital (DVD), disquete y disco Blu-ray, donde los discos reproducen normalmente datos de forma magnética, mientras que los discos reproducen datos de forma óptica con láseres. Las combinaciones de lo anterior también se deben incluir en el alcance de los medios legibles por ordenador. Adicionalmente, el funcionamiento de un procedimiento o algoritmo puede residir como un o cualquier combinación o conjunto de códigos e instrucciones en un medio legible por máquina y un medio legible por ordenador, que se puedan incorporar a un producto de programa informático.
[0072] Diversas modificaciones en las implementaciones descritas en la presente divulgación pueden ser fácilmente evidentes para los expertos en la técnica, y los principios genéricos definidos en el presente documento se pueden aplicar a otras implementaciones sin apartarse del alcance de la presente divulgación. Por tanto, las reivindicaciones no pretenden limitarse a las implementaciones mostradas en el presente documento, sino que han de estar de acuerdo con el alcance más amplio consistente con la presente divulgación, los principios y características novedosas divulgados en el presente documento. Adicionalmente, como apreciará fácilmente un experto en la técnica, los términos "superior" e "inferior", "arriba" y "abajo", "delantero" y "trasero", y "sobre", "en", "debajo" y "subyacente" se usan a veces para facilitar la descripción de las figuras e indicar las posiciones relativas correspondientes a la orientación de la figura en una página orientada apropiadamente, y pueden no reflejar la orientación apropiadamente del dispositivo como se implementa.
[0073] Determinadas características que se describen en la presente memoria descriptiva en el contexto de las implementaciones separadas también se pueden implementar en combinación en una única implementación. Por el contrario, diversas características que se describen en el contexto de una única implementación también se pueden implementar en múltiples implementaciones por separado o en cualquier subcombinación adecuada. Además, aunque las características se pueden describir anteriormente como que actúan en determinadas combinaciones e incluso reivindicadas como tales, una o más características de una combinación reivindicada, en algunos casos, se puede eliminar de la combinación, y la combinación reivindicada se puede dirigir a una subcombinación o variación de una subcombinación.
[0074] De forma similar, aunque las operaciones se representan en los dibujos en un orden particular, esto no se debe entender como que requiere que dichas operaciones se realicen en el orden particular mostrado o en un orden secuencial, o que se realicen todas las operaciones ilustradas para lograr los resultados deseables. Además, los dibujos pueden representar esquemáticamente uno o más procesos de ejemplo en forma de un diagrama de flujo. Sin embargo, se pueden incorporar otras operaciones que no están representadas en los procesos de ejemplo que se ilustran esquemáticamente. Por ejemplo, se pueden realizar una o más operaciones adicionales antes, después, simultáneamente o entre cualquiera de las operaciones ilustradas. En determinadas circunstancias, el procesamiento multitarea y en paralelo pueden ser ventajosos. Además, la separación de diversos componentes del sistema en las implementaciones descritas anteriormente no se debería entender como que se requiere dicha separación en todas las implementaciones, y se debería entender que los sistemas y componentes de programa descritos se pueden integrar, en general, entre sí en un único producto de programa informático o agrupar en múltiples productos de programa informático. Adicionalmente, otras implementaciones están dentro del alcance de las siguientes reivindicaciones. En algunos casos, las acciones mencionadas en las reivindicaciones se pueden realizar en un orden diferente y todavía lograr los resultados deseables.
Claims (15)
1. Un aparato, que comprende:
un dispositivo electrónico (100) que incluye una primera superficie exterior (101);
un sensor ultrasónico (106) dispuesto detrás de una primera parte de la primera superficie exterior; y medios para:
procesar la señal recibida del sensor ultrasónico para adquirir datos de imagen de una superficie de un objeto o sustancia en contacto con la primera parte de la primera superficie exterior (1020); y realizar una primera determinación, tras determinar que los datos de imagen adquiridos de la superficie son característicos de una superficie texturizada estructuralmente, incluyendo una huella dactilar, de que los datos de imagen resultan de un contacto intencionado de la superficie con la primera parte (1030).
2. El aparato de la reivindicación 1, que comprende además:
un procesador (104), estando asociado el procesador con uno o ambos del dispositivo electrónico y el sensor ultrasónico, en el que el procesador está configurado para incorporar los medios.
3. El aparato de la reivindicación 2, en el que:
el sensor ultrasónico está configurado para enviar la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja; o
en el que:
cuando los dispositivos electrónicos están en el modo de energía baja, el procesador está configurado para cambiar el dispositivo electrónico del modo de energía baja a un modo de energía normal cuando la primera determinación es que la señal recibida del sensor ultrasónico está relacionada con un contacto intencionado de la superficie con la primera parte.
4. El aparato de la reivindicación 2, en el que:
el dispositivo electrónico incluye uno o más de un sensor de luz ambiental, un sensor de presión, un sensor de temperatura ambiental y un detector de movimiento acoplados con uno o ambos del sensor ultrasónico y el procesador;
el sensor ultrasónico configurado para transmitir la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja solo después de uno o más del (i) sensor de luz ambiental, que registra un cambio en el nivel de luz ambiental; (ii) sensor de presión, que registra un cambio en la presión; (iii) sensor de temperatura ambiental, que registra un cambio en la temperatura ambiental; y (iv) detector de movimiento, que registra un movimiento del dispositivo electrónico.
5. El aparato de la reivindicación 2, en el que la primera superficie exterior incluye una pantalla interactiva que tiene un cristal de protección y la primera parte de la al menos una superficie corresponde a la localización de un botón virtual.
6. El aparato de la reivindicación 5, en el que el botón virtual se localiza en el cristal de protección; o en el que el botón virtual es un botón de inicio.
7. El aparato de la reivindicación 2, en el que la primera superficie exterior es opuesta a una segunda superficie exterior que incluye una pantalla interactiva que tiene un cristal de protección y la primera parte de la primera superficie exterior corresponde a una localización de un botón virtual.
8. El aparato de la reivindicación 2, en el que el procesador está configurado para realizar la primera determinación ejecutando uno o más de regresión por máquina de soporte vectorial, un algoritmo de red neuronal contemporánea y una técnica de aprendizaje profundo.
9. El aparato de la reivindicación 2, en el que el procesador está configurado para realizar la primera determinación ejecutando un proceso de detección adaptativa de dedos que incluye ejecutar, con el procesador, un algoritmo que incluye un proceso de aprendizaje con árbol de decisión de regresión entrenado.
10. El aparato de la reivindicación 9, configurado de modo que el proceso de aprendizaje con árbol de decisión funcione en las salidas de uno o más de:
un proceso de extracción de características de cresta;
un proceso de refinamiento de orientación;
un proceso de análisis de histograma de orientación;
un proceso de análisis y cambio y correlación de orientación y;
una similitud estructural del proceso de análisis de entrada; y
un proceso de análisis de patrón binario local.
11. Un procedimiento (1000) que comprende:
recibir (1010), en un procesador de un dispositivo electrónico (100) que incluye una primera superficie exterior (101), una señal de un sensor ultrasónico (106) dispuesto detrás de una primera parte de la primera superficie exterior, y, con el procesador:
procesar (1020) la señal recibida del sensor ultrasónico para adquirir datos de imagen de una superficie de un objeto o sustancia en contacto con la primera parte de la primera superficie exterior; y
realizar (1030) una primera determinación, tras determinar que los datos de imagen adquiridos de la superficie son característicos de una superficie texturizada estructuralmente, incluyendo una huella dactilar, de que los datos de imagen resultan de un contacto intencionado de la superficie con la primera parte.
12. El aparato de la reivindicación 11, en el que:
el sensor ultrasónico envía la señal al procesador si el dispositivo electrónico está o no en un modo de energía baja; y
que comprende además:
cuando los dispositivos electrónicos están en el modo de energía baja, cambiar el dispositivo electrónico del modo de energía baja a un modo de energía normal cuando la primera determinación es que la señal recibida del sensor ultrasónico está relacionada con un contacto intencionado de la superficie con la primera parte.
13. El procedimiento de la reivindicación 11, en el que la primera parte de la primera superficie exterior corresponde a una localización de un botón virtual y que comprende además ejecutar o abstenerse de ejecutar una función del botón virtual en base a la primera determinación; o
en el que realizar la primera determinación incluye ejecutar uno o más de regresión por máquina de soporte vectorial, un algoritmo de red neuronal contemporánea y una técnica de aprendizaje profundo.
14. El procedimiento de la reivindicación 11, en el que realizar la primera determinación incluye ejecutar un proceso de detección adaptativa de dedos que incluye ejecutar un algoritmo que incluye un proceso de aprendizaje con árbol de decisión de regresión entrenado; y
en el que el proceso de aprendizaje con árbol de decisión funciona en las salidas de uno o más de:
un proceso de extracción de características de cresta;
un proceso de refinamiento de orientación;
un proceso de análisis de histograma de orientación;
un proceso de análisis y cambio y correlación de orientación y;
una similitud estructural del proceso de análisis de entrada; y
un proceso de análisis de patrón binario local.
15. Un medio no transitorio legible por ordenador que tiene un programa informático almacenado en el mismo, incluyendo el programa informático instrucciones para provocar que un procesador de un dispositivo electrónico lleve a cabo el procedimiento de cualquiera de las reivindicaciones 11-14.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562186238P | 2015-06-29 | 2015-06-29 | |
US15/194,377 US10254881B2 (en) | 2015-06-29 | 2016-06-27 | Ultrasonic touch sensor-based virtual button |
PCT/US2016/039882 WO2017004076A1 (en) | 2015-06-29 | 2016-06-28 | Ultrasonic touch sensor-based virtual button |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2729245T3 true ES2729245T3 (es) | 2019-10-31 |
Family
ID=57602261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16738329T Active ES2729245T3 (es) | 2015-06-29 | 2016-06-28 | Botón virtual basado en sensor táctil ultrasónico |
Country Status (9)
Country | Link |
---|---|
US (1) | US10254881B2 (es) |
EP (1) | EP3314494B1 (es) |
JP (1) | JP2018530024A (es) |
KR (1) | KR102044088B1 (es) |
CN (1) | CN107743606B (es) |
BR (1) | BR112017028228A2 (es) |
ES (1) | ES2729245T3 (es) |
HU (1) | HUE043621T2 (es) |
WO (1) | WO2017004076A1 (es) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10387704B2 (en) * | 2015-06-29 | 2019-08-20 | Qualcomm Incorporated | Method and apparatus for enabling the touchscreen display of a mobile device |
US10037033B2 (en) * | 2016-06-15 | 2018-07-31 | Ford Global Technologies, Llc | Vehicle exterior surface object detection |
US10262187B1 (en) * | 2016-11-10 | 2019-04-16 | Synaptics Incorporated | Systems and methods for spoof detection based on local binary patterns |
WO2019226680A1 (en) * | 2018-05-21 | 2019-11-28 | UltraSense Systems, Inc. | Ultrasonic touch and force input detection |
DE102018213949A1 (de) * | 2018-08-17 | 2020-02-20 | Volkswagen Aktiengesellschaft | Verfahren zur Bedienung eines Gerätes, Vorrichtung zur Durchführung des Verfahrens, Fahrzeugtür sowie Computerprogramm |
KR102668223B1 (ko) * | 2018-09-04 | 2024-05-23 | 삼성전자주식회사 | 초음파 방식 인 디스플레이 지문 센서를 포함하는 전자 장치 및 그의 동작 방법 |
US10524461B1 (en) * | 2018-09-25 | 2020-01-07 | Jace W. Files | Pest detector to identify a type of pest using machine learning |
JP7183733B2 (ja) * | 2018-11-27 | 2022-12-06 | 株式会社リコー | ディスプレイ装置および制御方法 |
CN112445270B (zh) * | 2019-08-16 | 2023-03-31 | 华为技术有限公司 | 终端的按键结构和终端 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7834855B2 (en) * | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
WO2006042144A2 (en) | 2004-10-07 | 2006-04-20 | Ultra-Scan Corporation | Ultrasonic fingerprint scanning utilizing a plane wave |
JP2009048335A (ja) * | 2007-08-16 | 2009-03-05 | Lg Display Co Ltd | 液晶表示装置 |
US8432169B2 (en) | 2007-09-20 | 2013-04-30 | Panasonic Corporation | Proximity sensor |
WO2009053956A2 (en) | 2007-10-23 | 2009-04-30 | Leonid Minutin | Passive pointing/touching interface method |
US8385885B2 (en) * | 2008-10-17 | 2013-02-26 | Sony Ericsson Mobile Communications Ab | Method of unlocking a mobile electronic device |
US8605960B2 (en) * | 2009-03-02 | 2013-12-10 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Fingerprint sensing device |
CN101794197B (zh) * | 2010-04-06 | 2012-11-07 | 华为终端有限公司 | 触摸屏触发方法、触摸装置及手持设备 |
US8311514B2 (en) | 2010-09-16 | 2012-11-13 | Microsoft Corporation | Prevention of accidental device activation |
US8982045B2 (en) * | 2010-12-17 | 2015-03-17 | Microsoft Corporation | Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US9448651B2 (en) * | 2012-01-09 | 2016-09-20 | Google Inc. | Intelligent touchscreen keyboard with finger differentiation |
WO2013116835A1 (en) * | 2012-02-02 | 2013-08-08 | Ultra-Scan Corporation | Ultrasonic touch sensor with a display monitor |
CN103376932B (zh) * | 2012-04-26 | 2017-08-18 | 富泰华工业(深圳)有限公司 | 防误操作系统及方法 |
WO2014018115A1 (en) | 2012-07-26 | 2014-01-30 | Changello Enterprise Llc | Ultrasound-based force sensing of inputs |
US9007308B2 (en) * | 2012-08-03 | 2015-04-14 | Google Inc. | Adaptive keyboard lighting |
US9041690B2 (en) | 2012-08-06 | 2015-05-26 | Qualcomm Mems Technologies, Inc. | Channel waveguide system for sensing touch and/or gesture |
US9063564B2 (en) * | 2012-10-30 | 2015-06-23 | Google Technology Holdings LLC | Method and apparatus for action indication selection |
KR102022288B1 (ko) * | 2012-11-26 | 2019-11-04 | 삼성전자 주식회사 | 터치 입력 방법 및 휴대 단말 |
US9544666B2 (en) | 2013-02-11 | 2017-01-10 | Zefr, Inc. | Automated pre and post roll production |
US20140359757A1 (en) * | 2013-06-03 | 2014-12-04 | Qualcomm Incorporated | User authentication biometrics in mobile devices |
US9678591B2 (en) * | 2013-06-10 | 2017-06-13 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for sensing touch |
US9727770B2 (en) | 2013-07-22 | 2017-08-08 | Apple Inc. | Controllable signal processing in a biometric device |
US9984270B2 (en) | 2013-08-05 | 2018-05-29 | Apple Inc. | Fingerprint sensor in an electronic device |
KR101542961B1 (ko) | 2013-09-13 | 2015-08-07 | 현대자동차 주식회사 | 사용자 단말의 터치 검출 방법 및 시스템 |
US9921688B2 (en) | 2014-03-04 | 2018-03-20 | Qualcomm Incorporated | Large area interactive display screen |
US9633269B2 (en) | 2014-09-05 | 2017-04-25 | Qualcomm Incorporated | Image-based liveness detection for ultrasonic fingerprints |
-
2016
- 2016-06-27 US US15/194,377 patent/US10254881B2/en active Active
- 2016-06-28 KR KR1020177037136A patent/KR102044088B1/ko active IP Right Grant
- 2016-06-28 WO PCT/US2016/039882 patent/WO2017004076A1/en active Search and Examination
- 2016-06-28 CN CN201680032980.0A patent/CN107743606B/zh active Active
- 2016-06-28 ES ES16738329T patent/ES2729245T3/es active Active
- 2016-06-28 HU HUE16738329A patent/HUE043621T2/hu unknown
- 2016-06-28 EP EP16738329.8A patent/EP3314494B1/en active Active
- 2016-06-28 BR BR112017028228-3A patent/BR112017028228A2/pt not_active Application Discontinuation
- 2016-06-28 JP JP2017565708A patent/JP2018530024A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
HUE043621T2 (hu) | 2019-08-28 |
CN107743606B (zh) | 2021-05-25 |
JP2018530024A (ja) | 2018-10-11 |
KR20180022692A (ko) | 2018-03-06 |
WO2017004076A1 (en) | 2017-01-05 |
KR102044088B1 (ko) | 2019-11-12 |
US20160378244A1 (en) | 2016-12-29 |
EP3314494B1 (en) | 2019-04-03 |
BR112017028228A2 (pt) | 2018-08-28 |
US10254881B2 (en) | 2019-04-09 |
EP3314494A1 (en) | 2018-05-02 |
CN107743606A (zh) | 2018-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2729245T3 (es) | Botón virtual basado en sensor táctil ultrasónico | |
US11755137B2 (en) | Gesture recognition devices and methods | |
US8432372B2 (en) | User input using proximity sensing | |
JP2017518566A (ja) | モバイルプラットフォームにおける空中および表面マルチタッチ検出 | |
CN106415437B (zh) | 用于光学对象运动检测的成像布置 | |
US20130050133A1 (en) | Method and apparatus for precluding operations associated with accidental touch inputs | |
KR102614046B1 (ko) | 생체 데이터를 획득하기 위한 방법 및 그 전자 장치 | |
JP2017504853A (ja) | モバイルデバイスにおけるユーザ認証バイオメトリクス | |
CN108846371B (zh) | 显示装置及其指纹识别方法 | |
US9430081B2 (en) | Electronic device, control method, and control program | |
KR20130140188A (ko) | 적응가능 사용자 인터페이스 | |
US20170147861A1 (en) | Display apparatus and display method | |
US11907342B2 (en) | Selection of authentication function according to environment of user device | |
US10353488B2 (en) | Positional input on displays | |
CN107563259B (zh) | 检测动作信息的方法、感光数组及影像传感器 | |
JP6331988B2 (ja) | 電子機器、および、接触検出感度変更プログラム | |
US11532175B1 (en) | Imaging an object on a display | |
US10474860B2 (en) | Electronic device including a display driven based upon first and second alternatingly read memories and related methods | |
US9477326B2 (en) | Method of determining object position and system thereof | |
CN102446013A (zh) | 触控装置及其控制方法 |