ES2791770T3 - Interfaz de manejo, procedimiento para la visualización de una información que facilita un manejo de una interfaz de manejo y programa - Google Patents

Interfaz de manejo, procedimiento para la visualización de una información que facilita un manejo de una interfaz de manejo y programa Download PDF

Info

Publication number
ES2791770T3
ES2791770T3 ES13741717T ES13741717T ES2791770T3 ES 2791770 T3 ES2791770 T3 ES 2791770T3 ES 13741717 T ES13741717 T ES 13741717T ES 13741717 T ES13741717 T ES 13741717T ES 2791770 T3 ES2791770 T3 ES 2791770T3
Authority
ES
Spain
Prior art keywords
display
display element
detection area
contact
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13741717T
Other languages
English (en)
Inventor
Volkmar Tanneberger
Heino Wengelnik
Andreas Medler
Frank Althoff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Application granted granted Critical
Publication of ES2791770T3 publication Critical patent/ES2791770T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Interfaz (100) de manejo con las siguientes características: un elemento (110) de visualización sensible al tacto y al menos un sensor (120) que están configurados para visualizar una información sobre el elemento (110) de visualización a un usuario, para registrar un contacto del elemento (110) de visualización con un elemento (150) de contacto mediante el usuario y para registrar una presencia del elemento (150) de contacto en un área (170) de detección, conectándose el área (170) de detección a un lado del elemento (110) de visualización orientado hacia el usuario; y un circuito (130) de control que está configurado para controlar el elemento (110) de visualización, de tal manera que éste reproduce una información que facilita el manejo de la interfaz (100) de manejo sobre el elemento (110) de visualización, cuando el elemento (150) de contacto se encuentra en el área (170) de detección durante un lapso de tiempo predeterminado, sin que mientras tanto se registrase un contacto del elemento (110) de visualización, estando el circuito (130) de control configurado para controlar el elemento (110) de visualización, de tal manera que la reproducción de la información que facilita el manejo comprende un resalte óptico de al menos un elemento (190) de manejo virtual representado sobre el elemento de visualización.

Description

DESCRIPCIÓN
Interfaz de manejo, procedimiento para la visualización de una información que facilita un manejo de una interfaz de manejo y programa
La invención se refiere a una interfaz de manejo, un procedimiento para la visualización de una información que facilita el manejo de una interfaz de manejo y a un programa, con un código de programa para la realización de un procedimiento de este tipo. Estos pueden entrar en aplicación, por ejemplo, para el manejo de un sistema multifunción de un vehículo de motor o para el manejo de otros sistemas eléctricos y electrónicos, por ejemplo, sistemas de entretenimiento doméstico.
En muchos ámbitos de la técnica, aumenta cada vez más la diversidad funcional de componentes eléctricos y electrónicos. Ejemplos para ello, representan los sistemas de entretenimiento doméstico, como sistemas multifunción, como entran en aplicación, por ejemplo, en el ámbito de vehículos de motor. Tales sistemas multifunción pueden, por ejemplo, comprender funciones de un sistema de navegación, de un sistema de entretenimiento, de un sistema para la interconexión de datos, así como componentes climáticos del vehículo y otros componentes específicos del vehículo.
Para posibilitar a un usuario de estos sistemas un manejo lo más sencillo e intuitivo posible de los mismos, hoy en día se utilizan a menudo elementos de visualización sensibles al tacto, que también se denominan pantallas táctiles. Sobre estos pueden representarse informaciones contextuales, que, por ejemplo, pueden comprender elementos de manejo virtuales y otros componentes, que el usuario puede seleccionar o bien activar mediante un contacto de los mismos.
Tales sistemas de información multimedia y de control son, por ejemplo, conocidos a partir del documento EP 0956 219 B1 y el documento DE 102009059867 A1. El documento mencionado por último describe, de esta manera, por ejemplo, un procedimiento y un dispositivo para proporcionar una interfaz gráfica de usuario, que posibilita mover objetos representados sobre una superficie de visualización con ayuda de un gesto.
Sin embargo, en el marco de un vehículo de motor, también se utilizan dispositivo de visualización y de manejo sin contacto, a través de los que es posible una correspondiente selección. De esta manera, por ejemplo, el documento DE 10 2007 029 618 A1 describe un dispositivo de visualización y de manejo apagable sin contacto, que puede funcionar en diferentes modos de funcionamiento.
En estos sistemas y en similares, sin embargo, entonces puede llegarse a que a un usuario se le pongan a disposición simultáneamente una pluralidad de diferentes informaciones. Junto con elementos de manejo virtuales, es decir, por ejemplo, botones virtuales y reguladores deslizantes y giratorios virtuales, en este caso, a menudo también se visualizan tales informaciones, que precisamente no posibilitan una interacción con el usuario. A estos pueden contar, por ejemplo, fondos, sin embargo, también, por ejemplo, representaciones de mapa y otras informaciones y objetos.
Con un número creciente de las funciones que están a disposición de un sistema de este tipo, de esta manera, un manejo de los mismos puede poner al usuario, dado el caso, ante mayores retos. Estos pueden, dado el caso, intensificarse, cuando el sistema en cuestión se utiliza en un entorno, en el que la atención del usuario no está a disposición de éste sin limitación. En el caso de un vehículo de motor, este puede, por ejemplo, ser el caso cuando en el caso del usuario se trata del conductor del vehículo de motor y éste, durante la conducción, tiene que estar atento al mismo tiempo al entorno y a la situación del tráfico.
El documento WO /092746 A1, o bien US 2012/235947 A1, da a conocer un concepto para el manejo de un mapa geográfico, detectándose diferentes gestos por una pantalla y el mapa geográfico se escala o bien desplaza en base a los gestos. El documento DE 102009 019 561 A1, describe un concepto que en una pantalla cambia entre en modo de visualización y un modo de manejo, en función de una aproximación de un objeto a una zona de manejo delante de la pantalla.
El documento US 2012/0013645 A1, describe un sistema de visualización, en el que se visualiza un símbolo delante de una imagen de fondo. El símbolo se adapta en su tamaño en caso de una aproximación. El documento CN 1997 958 A, describe una superficie gráfica de usuario para una pantalla, que utiliza un barrido 3D. Cuando el dedo de un usuario se encuentra a una distancia determinada de la pantalla se superpone, por ejemplo, un menú.
Por ello, existe una necesidad de configurar más sencillo e intuitivo un manejo de un sistema de este tipo.
Esta necesidad la tienen en cuenta una interfaz de manejo de acuerdo con la reivindicación 1, un procedimiento para la visualización una información que facilita el manejo de una interfaz de manejo de acuerdo con la reivindicación 13 y un programa con un código de programa para la realización un procedimiento de este tipo, de acuerdo con la reivindicación 15.
Un ejemplo de realización de una interfaz de manejo comprende un elemento de visualización sensible al tacto y al menos un sensor, que están configurados para visualizar a un usuario una información sobre el elemento de visualización, para registrar un contacto mediante el usuario del elemento de visualización con un elemento de contacto y para registrar una presencia del elemento de contacto en un área de detección, conectándose el área de detección a un lado del elemento de visualización orientado hacia el usuario. La interfaz de manejo comprende, además, un circuito de control, que está configurado para controlar el elemento de visualización, de tal manera que éste reproduce una información que facilita un manejo de la interfaz de manejo sobre elemento de visualización, cuando el elemento de manejo se encuentra durante un lapso de tiempo predeterminado en el área de detección, sin que mientras tanto se registrase un contacto del elemento de visualización.
Un procedimiento de acuerdo con un ejemplo de realización para la visualización de una información que facilita un manejo de una interfaz de manejo, comprende una visualización de una información sobre un elemento de visualización sensible al tacto de la interfaz de manejo, un registro de una presencia de un elemento de contacto en un área de detección, conectándose el área de detección a un lado del elemento de visualización orientado hacia el usuario, y una reproducción de la información que facilita el manejo de la interfaz de manejo, cuando el elemento de contacto se encuentra en el área de detección durante un lapso de tiempo predeterminado, sin que mientras tanto se registrase un contacto del elemento de visualización.
Los ejemplos de realización comprenden, también, un programa con un código de programa para la realización de un procedimiento de este tipo, de acuerdo con un ejemplo de realización, cuando el código de programa se ejecuta en una computadora, un procesador o un componente de hardware programable. En el caso de un componente de hardware programable de este tipo, puede tratarse, por ejemplo, también de un aparato de control y otro sistema basado en hardware de un vehículo de motor.
De esta manera, los ejemplos de realización tienen el conocimiento subyacente, de que el manejo de un sistema, el cual implementa un ejemplo de realización, se puede configurar simplificado y más intuitivo dado que éste reproduce una información que facilita el manejo de la interfaz de manejo, cuando el elemento de contacto, con ayuda del cual tiene lugar el manejo del elemento de visualización sensible al tacto, se encuentra en el área de detección más allá del lapso de tiempo predeterminado, sin que mientras tanto se haya llegado a un contacto del elemento de visualización. En una situación de este tipo puede, por ejemplo, partirse de que el usuario busca y no encuentra una información sobre el elemento de visualización sensible al tacto, un elemento de manejo virtual u otro objeto, el cual él en realidad espera ahí. En un caso de este tipo, se puede dirigir, de esta manera, la atención del usuario a las posibilidades y opciones que se encuentran a disposición mediante la correspondiente superposición de la información que facilita el manejo, por lo cual, el manejo de la interfaz de manejo, dado el caso, se puede configurar simplificado y más intuitivo.
Si, además, se trata de una interfaz de manejo implementada en el marco de un vehículo de motor, a causa de la simplificación en el manejo, se puede llegar a una menor distracción del usuario que, dado el caso, también funciona como conductor. A causa de esto, puede, de esta manera, dado el caso, aumentarse una seguridad del tráfico.
El área de detección representa, en este caso, un volumen, el cual puede conectarse, por ejemplo, directamente a un lado del elemento de visualización orientado hacia el usuario. El área de detección no representa, por lo tanto, por ejemplo, una subsección del elemento de visualización con una correspondiente superficie de visualización, sino que más bien se extiende perpendicular con respecto a ésta dentro de una zona espacial, a través de la cual se mueve el elemento de contacto del usuario para tocar el elemento de visualización para, de esta manera, habilitar o realizar una correspondiente acción.
El circuito de control puede, de esta manera, estar configurado para captar un período de tiempo, durante el cual el elemento de contacto se encuentra en el área de detección. En base al período de tiempo así determinado, éste puede entonces comprobar si el período de tiempo detectado coincide con o bien sobrepasa el lapso de tiempo predeterminado. Si es el caso, el circuito de control puede reproducir la información que facilita el manejo de la interfaz de manejo sobre el elemento de visualización.
Para el control del elemento de visualización sensible al tacto, en este caso, el circuito de control puede estar acoplado con tecnología de información con el elemento de visualización sensible al tacto. El circuito de control y el elemento de visualización sensible al tacto pueden, de esta manera, entrar en comunicación entre sí a través del intercambio de señales que comprenden información o que portan información. El circuito de control puede, en este caso, por ejemplo, transmitir señales de control al elemento de visualización, mientras que el elemento de visualización sensible al tacto y, dado el caso, el al menos un sensor pueden transmitir correspondientes señales de captación o de sensor al circuito de control.
Las señales que portan información pueden, de esta manera, por ejemplo, transmitirse por medio de señales eléctricas, ópticas u otras, así como una combinación de las mismas. Pueden intercambiarse entre los correspondientes componentes con ayuda de líneas individuales, sin embargo, también con ayuda de sistemas de bus o una combinación de ambos. Las señales que portan información pueden, en este caso, estar configuradas continuas o discretas, tanto en relación con su intensidad de señal al igual que también de su recorrido temporal. Las señales pueden, de esta manera, por ejemplo, representar señales analógicas, sin embargo, también señales digitales.
Opcionalmente, el elemento de visualización sensible al tacto y el al menos un sensor pueden estar configurados, de tal manera que el área de detección encierra esencialmente por completo al elemento de visualización sensible al tacto, de tal manera que el elemento de contacto tiene que pasar el área de detección cuando el usuario mueve el elemento de contacto hacia el elemento de visualización sensible al tacto. A causa de esto, dado el caso, el manejo del sistema se puede configurar más simplificado y más intuitivo, dado que, de esta manera, dado el caso se puede evitar que el elemento de contacto se pueda llevar hacia el elemento de visualización, sin que el circuito de control registre una detención del elemento de contacto delante del elemento de visualización. De esta manera, se puede mejorar la seguridad de manejo de la interfaz de manejo en cuanto al reconocimiento de la detención del elemento de contacto, configura sus reacciones más fiables y, con ello, el manejo del sistema se configura simplificado y más intuitivo.
Opcionalmente, en el caso de una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control puede estar configurado de modo que el lapso de tiempo predeterminado asciende a 3 s. En otros ejemplos de realización, el lapso de tiempo predeterminado puede ascender a al menos 5 s, al menos 8 s, al menos 10 s o al menos 15 s. A causa de esto, puede ser posible simplificar más y configurar más intuitivo el manejo de un sistema de este tipo al, por un lado, no conducir un movimiento rápido del elemento de contacto a través del área de detección a una visualización de las informaciones que facilitan el manejo, por otro lado, sin embargo, no es necesaria una detención demasiado larga en el área de detección para visualizar ésta al usuario.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control puede estar configurado, de tal manera que el lapso de tiempo predeterminado es independiente de un movimiento del elemento de contacto en o a través del área de detección. De esta manera, la superposición de las informaciones que facilitan el manejo puede tener lugar de manera más fiable, lo que a su vez puede conducir a un manejo más sencillo y más intuitivo del sistema. De esta manera, precisamente en un ejemplo de realización de una interfaz de manejo, la manera en que se mueve el elemento de contacto en el área de detección, en la pregunta puede no tenerse en cuenta si las informaciones que facilitan el manejo se representan sobre el elemento de visualización o no. Esto puede, por ejemplo, ser entonces útil, cuando un movimiento del elemento de contacto, dado el caso, se perturba al menos, sin embargo, se influye a causa de fuerzas que actúan sobre éste. Esto puede, por ejemplo, producirse en el ámbito del vehículo de motor, cuando el elemento de contacto se mueve mediante un movimiento del vehículo, que el usuario no puede compensar o no por completo.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control puede estar configurado para controlar el elemento de visualización, de tal manera que la reproducción de la información que facilita el manejo comprende un resalte óptico de al menos un elemento de manejo virtual representado sobre el elemento de visualización. Un elemento de manejo virtual de este tipo puede, por ejemplo, comprender un pulsador virtual, un interruptor virtual, un botón virtual, un regulador deslizante virtual, un regulador giratorio virtual, un campo de detección virtual, un interruptor bidimensional virtual u otro correspondiente elemento de manejo virtual. Según cada configuración concreta puede, en este caso, por ejemplo, realizarse un borde del al menos un elemento de manejo virtual con líneas resaltadas más gruesas y/o a color. Alternativa o adicionalmente a esto, el al menos un elemento de manejo virtual también puede visualizarse resaltado a color. También, alternativa o adicionalmente, éste puede representarse ampliado. También puede adicional o alternativamente, el al menos un elemento de manejo virtual puede reproducirse en una representación tridimensional o en una tridimensional intensificada. También, adicional o alternativamente, el al menos un elemento de manejo virtual puede representarse pulsante y/o con un fenómeno luminoso que rodea su borde al menos parcialmente o por completo.
Opcionalmente, el circuito de control de una interfaz de manejo de acuerdo con un ejemplo de realización puede, además, de esta manera, estar configurado para controlar el elemento de visualización, de tal manera que la reproducción de la información que facilita el manejo comprende una representación de un menú de ayuda y/o de una visualización de ayuda. Según cada situación de aplicación concreta, de esta manera, puede desviarse una atención del usuario a al menos un elemento de manejo virtual o, mediante la superposición de un menú de ayuda o bien de una correspondiente visualización de ayuda, puede posibilitarse una dirección del usuario. A causa de esto, independientemente de la respectiva reproducción implementada de la información que facilita el manejo, el manejo de un sistema, el cual subyace en la interfaz de manejo de acuerdo con un ejemplo de realización, puede configurarse simplificado y más intuitivo.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control puede estar configurado para poder hacer apagable la reproducción de la información que facilita el manejo. A causa de esto puede, dado el caso, ser posible aumentar una aceptación del usuario de este sistema, dado que ésta puede tener influencia sobre las situaciones, en las que se representa la correspondiente información que facilita el manejo. Ésta puede tener lugar, por ejemplo, de forma contextual. Por lo tanto, también mediante esta medida, adicional o alternativamente, dado el caso, el manejo de un correspondiente sistema puede configurarse simplificado y más intuitivo.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el elemento de visualización sensible al tacto y el al menos un sensor pueden estar, además, de esta manera, configurados para registrar una presencia del elemento de contacto en un área de detección adicional y el área de detección, conectándose el área de detección adicional a un lado orientado en el área de detección hacia el usuario. En un caso de este tipo, el circuito de control puede, además, estar configurado para controlar el elemento de visualización, de tal manera que éste reproduce una información adicional que facilita el manejo de la interfaz de manejo, cuando el elemento de contacto se encuentra en el área de detección adicional y/o en el área de detección durante un lapso de tiempo predeterminado, sin que se registrase un contacto del elemento de visualización durante este lapso de tiempo. El área de detección y el área de detección adicional pueden, de esta manera, por ejemplo, formar un área de comprobación común.
Expresado de otra manera, el aparato de control puede estar, de esta manera, configurado para modificar una representación sobre el elemento de visualización de informaciones reproducidas sobre éste. A causa de esto, dado el caso, mediante esta modificación puede ser posible provocar ya entonces una desviación del usuario, cuando el elemento de contacto se encuentra en el área de detección adicional que se conecta al área de detección, sin que se registrase un contacto del elemento de visualización durante el lapso de tiempo predeterminado. También, a causa de esto, dado el caso, se puede realizar, de esta manera, más sencillo y más intuitivo el manejo de un sistema, el cual subyace en la interfaz de manejo, al estar menos destacada la representación modificada que la información que facilita el manejo descrita previamente. De esta manera, se puede implementar una superposición de dos grados de correspondientes informaciones. También, a cause de esto, dado el caso, se puede aumentar una aceptación de una interfaz de manejo de este tipo de acuerdo con un ejemplo de realización mediante el usuario.
Opcionalmente, el circuito de control puede, en este caso, estar también configurado de tal manera para comprobar una presencia del elemento de contacto solo en el área de detección adicional en relación con el lapso de tiempo predeterminado adicional. Dado el caso, de esta manera se puede omitir una comprobación del área de detección. En este caso, el área de comprobación arriba menciona puede comprender también solo el área de detección adicional, que se conecta al área de detección.
El área de detección adicional puede, en este caso, opcionalmente, conectarse directamente al área de detección. También opcionalmente, en una interfaz de manejo de este tipo el circuito de control puede, a su vez, estar configurado para captar el período de tiempo, durante el que el elemento de contacto se encuentra en el área de detección adicional. También, durante la comprobación de la presencia del elemento de contacto en el área de detección adicional en relación con el lapso de tiempo predeterminado adicional, el área de detección puede permanecer desatendida, de modo que el circuito de control controla el elemento de visualización solo entonces, de tal manera que éste reproduce la información adicional que facilita el manejo de la interfaz de manejo, cuando el elemento de contacto se encuentra en el área de detección adicional durante el lapso de tiempo predeterminado adicional, sin que se registrase un contacto del elemento de visualización durante este lapso de tiempo.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el elemento de visualización sensible al tacto y el al menos un sensor pueden estar configurados, de tal manera que el área de detección adicional encierra esencialmente por completo el área de detección, de tal manera que el elemento de contacto debe pasar el área de detección adicional cuando el usuario mueve el elemento de contacto en el área de detección. También, a causa de esto, se puede, de esta manera, posibilitar una reacción más fiable de una interfaz de manejo en relación con el área de detección adicional, dado que un pasar por delante del elemento de manejo en el área de detección adicional, de esta manera, no es esencialmente posible. De esta manera, también a causa de esto, el manejo del sistema, dado el caso, puede configurarse simplificado y más intuitivo.
Como ya se ha explicado en relación con el área de detección, opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control puede estar también aquí a su vez configurado, de modo que el lapso de tiempo predeterminado adicional asciende a al menos 3 s, en otros ejemplos de realización al menos 5 s, al menos 8 s, al menos 10 s o al menos 15 s. También, a causa de esto, un manejo de un correspondiente sistema, dado el caso, se puede configurar simplificado y más intuitivo, dado que solo cuando se sobrepasa el lapso de tiempo predeterminado adicional, se modifica correspondientemente la representación sobre el elemento de visualización y se reproduce la información adicional. Una distracción del usuario puede, por lo tanto, dado el caso, evitarse. Alternativa o adicionalmente, de esta manera, dado el caso, se puede evitar también una percepción del usuario, que éste se distraiga mediante la representación modificada y, con ello, dado el caso, se moleste. Por lo tanto, a causa de esto, dado el caso, se puede aumentar de nuevo una aceptación de una interfaz de manejo de este tipo, por lo cual, el manejo del sistema en el caso necesario se puede configurar todavía más simplificado y más intuitivo. El lapso de tiempo predeterminado y el lapso de tiempo predeterminado adicional pueden, en este caso, estar opcionalmente dimensionados idénticos, sin embargo, también puede ser diferentemente largos. A causa de esto, puede ser, dado el caso, posible simplificar una implementación o, sin embargo, también adaptar un correspondiente período de tiempo en función de una distancia del elemento 150 de contacto del elemento 110 de visualización, a partir del que se reproduce la información adicional o bien una correspondiente información que facilita el manejo. Una implementación por separado del lapso de tiempo predeterminado adicional puede, en este caso, dado el caso, también omitirse.
Como ya se ha explicado en relación con el área de detección, opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control también puede estar configurado, de tal manera que el lapso de tiempo predeterminado adicional es independiente de un movimiento del elemento de contacto en o a través del área de detección adicional. También, a causa de esto, dado el caso, un manejo del sistema se puede configurar más sencillo y más intuitivo, dado que movimientos del elemento de contacto, los cuales se provocan mediante un movimiento involuntario del elemento de contacto, dado el caso, ya no se consideran adicionalmente.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el circuito de control puede estar configurado para controlar el elemento de visualización, de tal manera que la reproducción de la información adicional que facilita el manejo de la interfaz de manejo, comprende un resalte tenue de al menos un elemento de manejo virtual representado sobre el elemento de visualización. También este resalte tenue puede, por ejemplo, tener lugar mediante una de las opciones ya mencionadas previamente. Alternativa o adicionalmente a esto, el circuito de control también puede estar configurado, de tal manera que éste controla el elemento de visualización, de tal manera que la reproducción de la información adicional que facilita el manejo de la interfaz de manejo, comprende una representación de un menú de ayuda y/o de una visualización de ayuda. Opcionalmente, en este caso, puede tratarse del menú de ayuda ya mencionado arriba o bien la visualización de ayuda arriba mencionada. Sin embargo, también puede ser un menú de ayuda adicional diferente o una visualización de ayuda adicional diferente. También, a causa de esto, se puede, de esta manera, dado el caso, posibilitarse una distracción del usuario contextual, por lo cual, dado el caso, el manejo del sistema se simplifica y es más intuitivo.
Opcionalmente, en una interfaz de manejo de acuerdo con un ejemplo de realización, el elemento de visualización sensible al tacto y el al menos un sensor pueden estar configurados, de tal manera que el elemento de contacto comprende al menos una parte del dedo y/o al menos una parte de la mano. A causa de esto, dado el caso, el manejo del sistema se puede configurar simplificado y más intuitivo, al hacerse posible un contacto directo del elemento de visualización mediante el usuario.
Un procedimiento para la visualización de una información que facilita el manejo de una interfaz de manejo puede, opcionalmente, comprender además una captación de un período de tiempo, durante el cual el elemento de contacto se encuentra en el área de detección, sin que mientras tanto se registrase un contacto del elemento de visualización, como ya se ha explicado anteriormente en relación con la interfaz de manejo. También, un procedimiento de acuerdo con un ejemplo de realización, puede comprender, además, un registro de un contacto del elemento de visualización sensible al tacto con el elemento de contacto mediante el usuario. Con el registro del contacto se puede habilitar o realizar entonces una acción. En el caso de una implementación de una interfaz de manejo de acuerdo con un ejemplo de realización, para ello, por ejemplo, el circuito de control puede estar correspondientemente configurado.
En un ejemplo de realización de un procedimiento de este tipo, los pasos de procedimiento nombrados previamente pueden realizarse en el orden indicado, sin embargo, también en uno diferente. De esta manera, dado el caso, los pasos de procedimiento individuales pueden tener lugar simultáneamente, al menos, sin embargo, también superponiéndose temporalmente, siempre que a partir de su descripción o la relación técnica no resulte algo diferente.
En este caso, dos objetos son adyacentes, entre los que no está dispuesto un objeto adicional del mismo tipo. Los correspondientes objetos directamente adyacentes cuando limita uno con otro, es decir, por ejemplo, están en contacto entre sí. Componentes eléctricos u otros están acoplados indirectamente entre sí a través de un componente adicional o indirectamente entre sí, de tal manera que estos posibilitan un intercambio de señal entre los componentes en cuestión. De esta manera, el correspondiente acoplamiento puede implementarse o realizarse por secciones o completamente, por ejemplo, eléctrica, óptica, magnéticamente o por medio de tecnología de radio.
A continuación, se describen y explican más en detalle ejemplos de realización bajo referencia a las figuras adjuntas.
La Fig. 1, muestra una vista frontal de una interfaz de manejo de acuerdo con un ejemplo de realización;
la Fig. 2, muestra una vista lateral de la interfaz de manejo mostrada en la Fig. 1 de acuerdo con un ejemplo de realización;
la Fig. 3, muestra una representación en perspectiva esquemáticamente simplificada de una interfaz de manejo de acuerdo con un ejemplo de realización adicional;
la Fig. 4, muestra una representación lateral de la interfaz de manejo mostrada en la Fig. 3 de acuerdo con un ejemplo de realización;
la Fig. 5a, muestra una representación esquemática de un elemento de manejo virtual;
la Fig. 5b, muestra una representación esquemática del elemento de manejo virtual mostrado en la Fig. 5a, el cual está resaltado tenue;
la Fig. 5c, muestra el elemento de manejo virtual mostrado en las Fig. 5a y 5b, el cual está resaltado mediante la utilización de la representación tridimensional y un efecto luminoso; y
la Fig. 6, muestra un diagrama de flujo de un procedimiento para la visualización de una información que facilita el manejo de la interfaz de manejo, de acuerdo con un ejemplo de realización.
En la siguiente descripción de las figuras adjuntas, que muestran ejemplos de realización, los mismos símbolos de referencia hacen referencia o los mismos componentes o comparables. Además, se utilizan símbolos de referencia que agrupan para componentes y objetos, que aparecen varias veces en un ejemplo de realización o en un dibujo, sin embargo, se describen conjuntamente en relación con una o varias características. Componentes u objetos, que se describen con el mismo símbolo de referencia o que agrupa, pueden estar realizados iguales, sin embargo, dado el caso, también diferentes, en relación con características individuales, varias o todas, por ejemplo, sus dimensionamientos, siempre que a partir de la descripción no resulte explícita o implícitamente algo diferente.
La Fig. 1 muestra una vista frontal de una interfaz 100 de manejo de acuerdo con un ejemplo de realización. La Fig. 2 muestra una correspondiente vista lateral de la interfaz 100 de manejo de la Fig. 1.
La interfaz 100 de manejo comprende un elemento 110 de visualización sensible al tacto y al menos un sensor 120. En el ejemplo de realización mostrado en las Fig. 1 y 2, la interfaz 100 de manejo presenta dos sensores 120-1, 120­ 2, estando el sensor 120-2 realizado como parte del elemento 110 de visualización sensible al tacto. Sin embargo, en otros ejemplos de realización, dado el caso, también puede implementarse una mayor o una menor cantidad de sensores 120. Estos están configurados junto con el elemento 110 de visualización sensible al tacto para realizar las funciones descritas a continuación en interacción con un circuito 130 de control de la interfaz 100 de manejo.
Para este fin, el o los sensores 120, así como el elemento 110 de visualización sensible al tacto, están acoplados con el circuito 130 de control, de tal manera que entre estos se pueden intercambiar señales que transmiten información. En el caso de éstas, puede tratarse, por ejemplo, de señales eléctricas, ópticas u otras que, por ejemplo, pueden transmitirse a través de líneas individuales, sin embargo, también a través de buses de datos o una combinación de los mismos. Las señales en cuestión, intercambiadas entre los componentes, pueden, en este caso, estar configuradas discretas o continuas independientes entre sí, tanto en relación con sus intensidades de señal, al igual que también en relación con su recorrido temporal. De esta manera, por ejemplo, se pueden intercambiar señales analógicas, sin embargo, también señales digitales entre los componentes en cuestión.
De esta manera, los sensores 120 pueden, por ejemplo, transmitir correspondientes señales de sensor al circuito 130 de control. Lo mismo puede, dado el caso, ser válido también para el elemento 110 de visualización sensible al tacto. Además, el circuito 130 de control también puede transmitir señales de control al elemento 110 de visualización sensible al tacto y, dado el caso, a los sensores 120.
Mientras que el elemento 110 de visualización sensible al tacto está configurado para visualizar una información a un usuario no mostrado en las Fig. 1 y 2, los sensores 120 están configurados, dado el caso, junto con el elemento 110 de visualización, para cumplir diferentes funciones, que se describen más en detalle a continuación.
Para posibilitar una visualización al usuario de la información mencionada anteriormente, el elemento 110 de visualización sensible al tacto presenta una superficie 140 de visualización, en la que se puede tratar, por ejemplo, de una superficie de visualización basada en matriz, la cual posibilita una representación monocromática y/o policromática de informaciones, objetos y otras estructuras.
Los sensores 120 o bien el elemento 110 de visualización sensible al tacto están, por el contrario, configurados para registrar un contacto del elemento 110 de visualización, es decir, por ejemplo, de la superficie 140 de visualización, con un elemento 150 de contacto, en el que, por ejemplo, se puede tratar de un dedo 160, una parte del mismo o, también, otra parte de una mano del usuario. Si el elemento 110 de visualización sensible al tacto o un correspondiente sensor 120, por ejemplo, el sensor 120-2 integrado en el elemento 110 de visualización sensible al tacto, capta un contacto de este tipo, el elemento 110 de visualización o el sensor 120 puede transmitir una correspondiente señal de sensor al circuito 130 de control. Ésta puede, entonces, desencadenar o realizar una acción determinada, siempre que esto coincida con un conjunto de reglas y condiciones definido previamente, que, por ejemplo, puede depender contextualmente de las informaciones representadas sobre la superficie 140 de visualización. De esta manera, el usuario puede, por ejemplo, tocar un elemento de manejo virtual con el elemento 150 de contacto, con lo cual, el circuito 130 de control realiza una función asociada al elemento de manejo virtual en cuestión, o impulsa ésta mediante la transmisión o la retransmisión de una correspondiente señal de control.
Junto con el dedo 160 o bien una parte del mismo, los sensores 120 y/o el elemento 110 de visualización sensible al tacto también pueden estar configurados, de tal manera que estos reconocen otra parte de la mano del usuario como elemento 150 de contacto, con ayuda del cual se puede provocar un desencadenamiento o una realización de una acción mediante un contacto del elemento 110 de visualización con el elemento 150 de contacto.
Los sensores 120 y el elemento 110 de visualización sensible al tacto están, además, configurados, de tal manera que estos registran una presencia del elemento 150 de contacto en un área 170 de detección, que está dibujada como línea a trazos en las Fig. 1 y 2, y se conecta a un lado del elemento 110 de visualización orientado hacia el usuario. En el ejemplo de realización aquí mostrado, el área 170 de detección se conecta directamente a la superficie 140 de visualización del elemento 110 de visualización. El área 170 de detección está, en este caso, configurada, de tal manera que ésta encierra esencialmente por completo al elemento 110 de visualización o bien su superficie 140 de visualización, de tal manera que el elemento 150 de contacto debe pasar el área 170 de detección, cuando el usuario conduce o mueve el elemento 150 de contacto hacia el elemento 110 de visualización. El área de detección se extiende, de esta manera, partiendo desde la superficie 140 visualización o bien el elemento 110 de visualización, perpendicular a éste en un espacio, que está orientado hacia el usuario. El área de detección representa, de esta manera, un volumen del espacio.
Si, entonces, el circuito 130 de control detecta que el elemento 150 de contacto se encuentra en el área 170 de detección durante un lapso de tiempo predeterminado, sin que, sin embargo, mientras tanto se registrase un contacto del elemento 110 de visualización, es decir, por ejemplo, de la superficie 140 de visualización, éste puede controlar el elemento 110 de visualización, de tal manera que se visualiza o reproduce una información que facilita el manejo de la interfaz de manejo sobre el elemento 110 de visualización. Para este fin, el circuito 130 de control puede, por ejemplo, captar un período de tiempo, durante el cual el elemento 150 de contacto se encuentra en el área 170 de detección. Si el período de tiempo captado sobrepasa el lapso de tiempo predeterminado o corresponde a éste, el circuito 130 de control puede deducir de ello que el usuario no está seguro en relación con el manejo de la interfaz de manejo, cuando en este período de tiempo no tiene lugar un contacto del elemento de visualización mediante el usuario. El lapso de tiempo predeterminado puede, según cada implementación y aplicación, por ejemplo, ascender a al menos 3 s, al menos 5 s, al menos 8 s, al menos 10 s o al menos 15 s. Éste puede, opcionalmente, en particular, ser independiente de un movimiento del elemento 150 de contacto en el área 170 de detección o bien a través de ésta.
Los sensores 120 pueden, en este caso, por ejemplo, implementarse como sensores resistivos, sensores capacitivos, sensores ópticos o sensores basados en ultrasonidos, con ayuda de los cuales se puede registrar un contacto del elemento 110 de visualización con el elemento 150 de contacto o una aproximación del mismo, es decir, una presencia del elemento 150 de contacto en el área 170 de detección. También, dado el caso, se pueden utilizar también sensores térmicos, los cuales pueden beneficiarse de una radiación térmica de un dedo 160 u otra parte de la mano humana, para, de esta manera, detectar una aproximación de la mano, del dedo 160 y, dado el caso, también un contacto del mismo con el elemento 110 de visualización.
En el ámbito de sensores capacitivos pueden, de esta manera, por ejemplo, utilizarse tales, en los que se introduce un campo de alta frecuencia entre el usuario y el elemento de visualización, cuyas intensidades de señal y/o soporte de fase depende de una distancia del usuario, es decir, en particular, de su dedo 160 o su mano del elemento 110 de visualización. Si, por ejemplo, en el ámbito de vehículos de motor, se utilizan diferentes frecuencias para conductor y copiloto, así como, dado el caso, otros pasajeros, el circuito 130 de control puede, de esta manera, por ejemplo, captar también qué usuario maneja el elemento 110 de visualización.
También pueden utilizar sensores ópticos, a los que, por ejemplo, cuentan también sistemas basados en cámaras. Alternativa o adicionalmente, en el ámbito de los sensores ópticos, junto con los sensores basados en radiación térmica mencionados previamente, es decir, por ejemplo, sensores de infrarrojos, también pueden utilizarse aquellos en los se detectan señales de diodos emisores de luz y, por ejemplo, se comprueban en busca de una interrupción, una reflexión u otra variación de señal. Lo mismo es válido también para sistemas basados en ultrasonidos.
Al menos uno de los sensores 120 puede, de esta manera, dado el caso, implementarse como sensor de aproximación, por lo que, en relación con una interfaz 100 de manejo de acuerdo con un ejemplo de realización, se habla también de una interfaz de manejo con un sistema de sensores de aproximación de un grado, de dos grados o de varios grados.
Si, de esta manera, la mano del usuario activa el sistema de sensores de aproximación y se encuentra desde hace 3, 5, 8, 10 o 15 s en el área 170 de detección, también denominada área de desencadenamiento, sin que haya tenido lugar un contacto con el elemento 110 de visualización (evento táctil), a través del circuito 130 de control, se puede superponer una información que facilita el manejo de la interfaz 100 de manejo sobre el elemento 110 de visualización. De esta manera, por ejemplo, se puede superponer entonces un menú de ayuda y/o una visualización de ayuda para el manejo de la interfaz 100 de manejo sobre la superficie 140 de visualización, que también se denomina pantalla táctil. De esta manera, por ejemplo, como menú de ayuda o visualización de ayuda, se puede elegir una correspondiente representación, en la que, por ejemplo, se explican o bien aclaran elementos de manejo virtuales individuales en relación con su funcionalidad. De esta manera, por ejemplo, se pueden realizar ventanas de ayuda emergentes, con ayuda de las cuales, dado el caso, se puede facilitar un manejo de la interfaz 100 de manejo. También, dado el caso, pueden superponerse menús de ayuda nuevos, contextuales, a través de los que un manejo de la interfaz de manejo también puede configurase más sencillo y más intuitivo.
Alternativa o adicionalmente a esto, la interfaz 100 de manejo o bien el circuito 130 de control, también puede estar configurado, de modo que cuando, por ejemplo, una mano del usuario ha activado el sistema de sensores de aproximación (sensores 120) y se encuentra en el área 170 de detección desde hace, por ejemplo, 3, 5, 8, 10 o 15 s, sin que haya tenido lugar un contacto con el elemento 110 de visualización, sobre la superficie 140 de visualización, también denominada pantalla, screen o display, los elementos de manejo virtuales manejables se pueden resaltar todavía más evidentes, al utilizarse, por ejemplo, líneas más gruesas, una representación más grande, una representación tridimensional, una representación tridimensional intensa, una animación, sombras adicionales, fenómenos luminoso (brillo), un mayor contraste, colores más intensos o una representación más fotorrealista.
Por supuesto, dado el caso, puede ser aconsejable, para aumentar una aceptación de un usuario con respecto a un sistema de este tipo, configurar apagable o desactivable la reproducción de las informaciones que facilitan el manejo de la interfaz 100 de manejo sobre el elemento 110 de visualización. De esta manera, por ejemplo, una correspondiente visualización de ayuda puede estar configurada desactivable en un menú de ajustes.
Las interfaces 100 de manejo de acuerdo con un ejemplo de realización pueden, en este caso, utilizarse en una pluralidad de campos de aplicación. Pueden, por ejemplo, utilizarse en el ámbito de vehículos de motor, para manejar ahí sistemas multifunción que, por ejemplo, se puede realizar un sistema de navegación, un sistema de entretenimiento (Infotainment-System), un sistema de intercambio de datos, con ayuda del cual, por ejemplo, se pueden intercambiar datos a través de una conexión móvil con el Internet, así como sistemas para el control de climatización y otros sistemas relevantes del vehículo. Ejemplos de realización de una interfaz 100 de manejo pueden, de esta manera, por ejemplo, implementarse como sistema de infoentretenimiento de pantalla táctil con un sistema de sensores de aproximación de un grado, como está éste mostrado en relación con las Fig. 1 y 2, sin embargo, dado el caso, implementarse también con un sistema de sensores de aproximación de dos grados o de varios grados.
Sin embargo, también pueden entrar en aplicación ejemplos de realización de una interfaz de manejo en otros componentes eléctricos y electrónicos, a los que cuentan, por ejemplo, sistemas en el ámbito del hogar, por ejemplo, sistemas de entretenimiento (Home Entertainment).
Por supuesto, en los ejemplos de realización de una interfaz 100 de manejo de acuerdo con un ejemplo de realización, no tienen que implementarse todas las configuraciones y características descritas previamente. De esta manera, por ejemplo, una configuración se puede configurar de otra manera en relación con la disposición geométrica del área 170 de detección con respecto al elemento 110 de visualización o bien la superficie 140 de visualización. También, dado el caso, el circuito de control puede desviarse de las formas de realización descritas previamente en relación a la configuración del lapso de tiempo predeterminado. También, dado el caso, se puede omitir como componente opcional una capacidad de desactivación de la reproducción de las informaciones que facilitan el manejo.
No en última instancia, en relación a la cantidad y al tipo de sensores utilizados, que en parte pueden estar implementados en el marco del elemento 110 de visualización, diferentes interfaces 100 de manejo de acuerdo con un ejemplo de realización pueden desviarse de otras. De esta manera, los sensores 120 pueden implementarse por completo o parcialmente como parte de los elementos 110 de visualización sensibles al tacto. Sin embargo, también pueden utilizarse, adicional o alternativamente, sensores 120 externos, que posibilitan las funciones descritas previamente.
En el ejemplo de realización mostrado en las Fig. 1 y 2 de una interfaz 100 de manejo, de esta manera, por lo tanto, se puede medir, por ejemplo, un tiempo o un período de tiempo, en el que la mano, el dedo 160 u otro elemento 150 de contacto se encuentra en el área 170 de detección. Relevante es, en este caso, el tiempo durante el cual la mano, el dedo 160 o el elemento 150 de contacto no toca el elemento 110 de visualización, es decir, la pantalla táctil, sin embargo, se encuentra en el área 170 de detección. De esta manera, se puede representar una correspondiente información en función de una aproximación del elemento 150 de contacto en caso de no haber un contacto (Touch).
La Fig. 3 muestra un diagrama de bloques esquemáticamente simplificado de otro ejemplo de realización de un sistema 100 de manejo en una representación en perspectiva, la cual se diferencia de la interfaz 100 de manejo mostrada en las Fig. 1 y 2, esencialmente en relación con la configuración del área 170 de detección y de un área 180 de detección adicional. Para dejar destacar más notablemente esta diferenciación, en la Fig. 3 se ha elegido una representación en perspectiva de la interfaz 100 de manejo, mientras que la Fig. 4 muestra una vista lateral similar en la Fig. 2 de la interfaz 100 de manejo.
La interfaz 100 de manejo mostrada en las Fig. 3 y 4, se desvía de las previamente descritas, esencialmente dado que ahora junto al área 170 de detección, que en el presente caso está configurado espacialmente más pequeño que como era el caso previamente en el ejemplo de realización, está implementada un área 180 de detección adicional. El área 180 de detección adicional se conecta, en este caso, al área 170 de detección en un lado del mismo orientado hacia el usuario. También aquí, el área 180 de detección adicional puede conectarse directamente al área 170 de detección y, opcionalmente, estar configurado, de modo que ésta encierra el área de detección esencialmente por completo, de tal manera que el elemento 150 de contacto, el cual no está mostrado en las Fig. 3 y 4, solo alcanza el área 170 de detección, cuando éste ha pasado previamente el área 180 de detección adicional o se ha movido a través de ésta. Expresado de otra manera, el área 180 de detección adicional puede encerrar el área 170 de detección esencialmente por completo, de tal manera que el elemento 150 de contacto (no representado en las Fig. 3 y 4) pasa el área 180 de detección adicional cuando el usuario mueve el elemento 150 de contacto en el área 170 de detección.
El circuito 130 de control puede, en un caso de este tipo, estar configurado, además, de modo que éste controla el elemento 110 de visualización o bien la superficie 140 de visualización, de tal manera que éste utiliza una representación modificada de la información representada sobre el elemento 110 de visualización, cuando el elemento 150 de contacto se encuentra en el área 180 de detección adicional y/o el área 170 de detección durante un lapso de tiempo predeterminado adicional, sin que se registrase un contacto del elemento 110 de visualización durante este tiempo. El circuito 130 de control puede, de esta manera, reproducir una información adicional que facilita el manejo del sistema 100 de manejo sobre el elemento 110 de visualización o bien su superficie 140 de visualización. Para este fin, el circuito 130 de control puede estar correspondientemente configurado para captar un período de tiempo, durante el cual el elemento 150 de contacto se encuentra en el área 180 de detección adicional o bien en el área 170 de detección. Opcionalmente, el circuito 130 de control puede, en este caso, comprobar también solo el área 180 de detección adicional en el marco de la reproducción de las informaciones adicionales.
El área 180 de detección adicional puede, de esta manera, por ejemplo, extenderse partiendo del elemento 110 de visualización o su superficie 140 de visualización, desde algunos centímetros hasta algunas decenas de centímetros hacia el lado que está orientado hacia el usuario. El área 180 de detección adicional puede, de esta manera, por ejemplo, presentar un borde que está orientado hacia el usuario y que presenta una distancia de la superficie 140 de visualización o del elemento 110 de visualización de, por ejemplo, 5 a 50 cm, es decir, por ejemplo, aproximadamente 20 cm.
A diferencia de esto, el área 170 de detección puede extenderse, partiendo del elemento 110 de visualización o su superficie 140 de visualización, más reducida hacia el usuario. Ésta puede, de esta manera, por ejemplo, extenderse máximo 10 cm hacia el usuario. De esta manera, por ejemplo, un borde del área 170 de detección, que está orientado hacia el usuario y, al mismo tiempo, representa un borde del área 180 de detección adicional, puede presentar una distancia del elemento 110 de visualización o de la superficie 140 de visualización de aproximadamente 5 cm.
De manera correspondiente, el al menos un sensor 120 y el elemento 110 de visualización sensible al tacto pueden, además, estar configurados para registrar también la presencia del elemento 150 de contacto en el área 180 de detección adicional y transmitir a través de una correspondiente señal al circuito 130 de control. El área 180 de detección adicional se conecta, en este caso, como ya se ha explicado, al área 170 de detección en un lado orientado hacia el usuario.
El lapso de tiempo adicional, durante el cual el elemento 150 de contacto se detiene en el área 180 de detección adicional, sin que, en este caso, se llegue a un registro de un contacto del elemento 110 de visualización, puede, por ejemplo, de nuevo ascender a al menos 3 s, al menos 5 s, al menos 8 s, al menos 10 s o al menos 15 s. También aquí, el lapso de tiempo predeterminado adicional puede ser, de manera correspondiente, independiente de un movimiento del elemento 150 de contacto en o a través del área 180 de detección adicional.
Si ahora el circuito de control detecta que, durante el lapso de tiempo adicional predeterminado, el elemento 150 de contacto se ha encontrado en el área 180 de detección adicional, sin embargo, no ha llegado a un contacto del elemento 110 de visualización, éste puede controlar el elemento 110 de visualización de modo que éste reproduce una información adicional que facilita el manejo de la interfaz 100 de manejo sobre el elemento 110 de visualización. También aquí, esto puede comprender, de nuevo, por ejemplo, un resalte tenue de al menos un elemento de manejo virtual representado sobre el elemento de visualización o, también, una superposición o una representación del menú de ayuda o de un menú de ayuda adicional y/o de la visualización de ayuda o de una visualización de ayuda adicional.
Por supuesto, la modificación de la representación también puede, dado el caso, estar configurada como componente opcional apagable o desactivable.
Las Fig. 3 y 4 muestran, de esta manera, por lo tanto, un ejemplo de realización de una interfaz 100 de manejo de acuerdo con un ejemplo de realización, en el que está implementado un sistema de sensores de aproximación de dos grados con ayuda de los sensores 120. Si la mano del usuario activa el sistema de sensores de aproximación y se encuentra desde hace 3, 5, 8, 10 o 15 s en la primera área de desencadenamiento (área 180 de detección adicional) o en la segunda área de desencadenamiento (área 170 de detección), sin que haya tenido lugar un contacto del elemento 110 de visualización (Touch-Event), sobre el campo 140 de visualización se puede superponer, por ejemplo, el menú de ayuda adicional ya mencionado previamente o menú de ayuda para el manejo de la interfaz 100 de manejo. Adicional o alternativamente, los elementos de manejo virtuales, que se representan sobre el elemento 110 de visualización, pueden, por ejemplo, resaltarse ópticamente tenues, en el marco de una modificación de la representación, sobre el elemento 110 de visualización.
Si, de esta manera, por ejemplo, se implementa un sistema de sensores de aproximación de dos grados, se pueden implementar, por ejemplo, tres variantes de visualización diferentes para un elemento de manejo virtual. Si, por ejemplo, el elemento 150 de contacto no está en el área de detección ni en el área 180 de detección adicional, es decir, alejado, el elemento de manejo virtual en cuestión puede, por ejemplo, representarse como una representación bidimensional pequeña y sin borde. Dado el caso, también puede omitirse completamente una representación gráfica o bien ajustarse una transparencia del mismo al 100 %. Si ahora, desde el estado alejado, se acerca el elemento 150 de contacto, de modo que éste en una primera etapa penetra en el área 180 de detección adicional, el elemento de manejo virtual puede representarse, por ejemplo, más grande y/o con un borde, sin embargo, también se puede recurrir a una representación tridimensional y/o presentar un correspondiente relleno. Si el elemento de contacto penetra en el área 170 de detección y se detiene ahí el correspondiente período de tiempo, el elemento de manejo virtual puede, dado el caso, representarse todavía más grande, con un borde más grueso, en el marco de una representación tridimensional y/o con un relleno y, dado el caso, efectos luminosos (brillo).
De esta manera, en el marco de una utilización de un sistema de sensores de aproximación de dos grados, se puede implementar, por ejemplo, un tercer grado de la visualización de elementos manejables. A causa de esto, no solo puede configurarse un manejo del sistema, dado el caso, simplificado y más intuitivo, esto también puede tener lugar en el marco de un concepto ópticamente agradable, de modo que es posible una escenificación percibida como agradable de las informaciones en cuestión sobre la superficie 140 de visualización. La utilización de un sistema de sensores de este tipo puede, de esta manera, por ejemplo, posibilitar una mejor perceptibilidad de los elementos de manejo y, con ello, una manejabilidad más sencilla y más intuitiva con un diseño al mismo tiempo agradable en el estado alejado, como se explicó éste previamente.
Por supuesto, esta implementación también puede estar configurada desactivable, para, de esta manera, mejorar una aceptación mediante el usuario. La tercera visualización puede, de esta manera, por ejemplo, ser desactivable en un menú de ajustes. Expresado de otra manera, en un ejemplo de realización de una interfaz de manejo, el circuito de control puede, opcionalmente, estar configurado para hacer desactivable la utilización de la representación modificada de las informaciones representadas sobre el elemento de visualización.
La Fig. 5a muestra, de esta manera, un elemento 190 de manejo virtual, en el que, por ejemplo, se puede tratar de una superficie táctil virtual, que también se denomina botón. En este caso, la Fig. 5a muestra, por ejemplo, un estado en el que el elemento 150 de contacto no se detiene en una de las áreas 170, 180 de detección o todavía no ha sobrepasado el período de tiempo predeterminado o ben el período de tiempo adicional predeterminado.
Si el elemento 150 de contacto se encuentra en el área 180 de detección adicional más que el lapso de tiempo adicional predeterminado, el circuito de control puede modificar la representación de informaciones representadas sobre el elemento 110 de visualización, de modo que el elemento 190 de manejo virtual se resalta más notablemente mediante utilización de líneas más intensas, como está representado, por ejemplo, en la Fig. 5b.
Si, por el contrario, el elemento 150 de contracto se detiene más que el lapso de tiempo predeterminado en el área 170 de detección, sin que se haya llegado a un contacto del elemento 110 de visualización, el circuito 130 de control puede controlar el elemento 110 de visualización, de tal manera que el elemento 190 de manejo virtual se representa, por ejemplo, tridimensional con un correspondiente efecto luminoso alrededor de su borde. Adicionalmente a esto, también puede aumentarse un tamaño de letra de la inscripción del elemento 190 de manejo virtual.
De esta manera, los elementos 190 de manejo virtuales en las Fig. 5a y 5b presentan inscripciones “SALIR” idénticamente grandes, mientas que en la Fig. 5c la representación de la palabra “SALIR” está ampliada, es decir, con un tamaño de letra correspondientemente más grande. Por supuesto, en el caso de los resaltes descritos y de las inscripciones utilizadas, se trata solo de ejemplos individuales.
Por supuesto, también pueden tener lugar otras modificaciones de la representación de informaciones reproducidas sobre el elemento 110 de visualización o bien una reproducción de correspondientes informaciones que facilitan el manejo de la interfaz de manejo sobre el elemento 110 de visualización.
También, en relación con el ejemplo de realización mostrado en las Fig. 3 y 4, es válido que, por supuesto, no tienen que implementarse todas las configuraciones descritas previamente en el marco de otros ejemplos de realización. También aquí, dado el caso, pueden implementarse desviaciones, por ejemplo, en relación a la disposición geométrica de las áreas 170, 180 de detección, solo por nombrar un ejemplo.
La Fig. 6 muestra, por último, un diagrama de flujo de un procedimiento para la visualización de una información que facilita el manejo de una interfaz 100 de manejo. En primer lugar, en el marco de un paso S100, se visualiza una información sobre el elemento 110 de visualización o bien la superficie 140 de visualización. A continuación, en el marco de un paso S110, se intenta registrar una presencia del elemento 150 de contacto en el área 170 de detección. Para ello, en el marco de un paso S120, se capta correspondientemente un período de tiempo. En el marco de un paso S130, se intenta registrar un contacto. Si, en este caso, se ha registrado un contacto, en el marco de un paso S140, se desencadena o bien realiza la acción asociada con el contacto antes de que el procedimiento finalice en un paso S150.
Si, en el marco del paso S130, sin embargo, no se registró un contacto, en el marco de un paso 160, se comprueba si se ha sobrepasado el lapso de tiempo predeterminado. Si es el caso, en el marco de un paso S170, se puede reproducir una información que facilita el manejo de la interfaz 100 de manejo sobre el elemento 110 de visualización, antes de que el procedimiento termine, de nuevo, en el paso S150. Si, por el contrario, no es el caso, es decir, no se ha sobrepasado el lapso de tiempo predeterminado, puede tener lugar un salto hacia atrás al paso S100 de la visualización de la información, de modo que, de nuevo, por ejemplo, se registra una presencia del elemento de contacto en el área 170 de detección, se capta el período de tiempo y, de nuevo, se puede realizar una comprobación para la existencia de un contacto.
Opcionalmente, por supuesto, en el marco de un paso S180, entre la comprobación de si se ha sobrepasado el lapso de tiempo predeterminado (paso S160) y la reproducción de la información, en el paso S170 puede tener lugar una comprobación de si la reproducción está activada. Si no es el caso, en el paso S170, puede tener lugar una correspondiente reproducción de la información, mientras que el otro caso el procedimiento puede terminar en el paso S150.
En el procedimiento descrito previamente se trata de uno que puede, por ejemplo, implementarse con ayuda de un sensor de aproximación de un grado. Sin embargo, este procedimiento también puede implementarse en el marco de un sensor de dos grados, como se ha descrito hasta ahora en relación con la Fig. 6. Sin embargo, adicionalmente, también puede comprender un registro de una presencia del elemento de contacto en el área 180 de detección adicional, en el marco de un paso S190, que, por ejemplo, puede realizarse después de una visualización de la información sobre el elemento de visualización el paso S100. También, en el marco de un paso S200, se puede comprobar si se ha sobrepasado el lapso de tiempo adicional predeterminado, sin que se registrase un contacto. El paso S200 puede, de esta manera, por ejemplo, realizarse después del paso S130 de la comprobación de si se registró un contacto. Si, en la comprobación, de si ha sobrepasado el lapso de tiempo adicional predeterminado, se determina que es el caso, tras transcurrir directamente o indirectamente, por ejemplo, el paso S160 y S180, en el marco de un paso S170, también se puede modificar la representación de informaciones sobre el elemento 110 de visualización o bien superponerse la información adicional que facilita el manejo de la interfaz 100 de manejo. Si, por el contrario, no es el caso, puede tener lugar, correspondientemente, un salto hacia atrás a un paso después de la visualización de la información sobre el elemento 110 de visualización en el paso S100.
Por supuesto, en ejemplos de realización de un procedimiento de este tipo, los pasos descritos pueden desviarse unos de otros en relación con su orden, dado el caso, realizarse en paralelo o, también, superpuestos temporalmente unos con respecto a otros, siempre que no resulte algo opuesto a partir de la descripción de los mismos.
Mediante la utilización de un ejemplo de realización, dado el caso, un manejo de un sistema, que comprende una interfaz 100 de manejo de este tipo, puede configurarse más sencillo y más intuitivo.
Las características dadas a conocer en la descripción anterior, las siguientes reivindicaciones y las figuras adjuntas pueden ser de importancia en sus diferentes configuraciones e implementarse tanto individuales al igual que también en cualquier combinación para la realización de un ejemplo de realización.
Aunque algunos aspectos se han descrito en relación con un dispositivo, se entiende que estos aspectos también representan una descripción del correspondiente procedimiento, de modo que un bloque o un elemento funcional de un dispositivo también ha de entenderse como un correspondiente paso de procedimiento o como una característica de un paso de procedimiento. Análogo a esto, los aspectos, que se han descrito en relación con o como un paso de procedimiento, representan también una descripción de un correspondiente bloque o detalle o característica de un correspondiente dispositivo.
Según cada necesidad de implementación determinada, los ejemplos de realización de la invención pueden implementarse en hardware o en software. La implementación puede realizarse con utilización de un medio de almacenamiento digital, por ejemplo, un disquete, un DVD, un disco Blue-Ray, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria FLASH, un disco duro u otro almacenamiento magnético u óptico, sobre el que están almacenadas señales de control legibles electrónicamente, que pueden interaccionar o interaccionan con un componente de hardware programable, de tal manera que se realiza el respectivo procedimiento.
Un componente de hardware programable puede formarse mediante un procesador, un procesador de computadora (CPU = Central Processing Unit), un procesador gráfico (GPU = Graphics Processing Unit), una computadora, un sistema informático, un circuito integrado de aplicación específica (ASIC = Application-Specific Integrated Circuit), un circuito integrado (IC = Integrated Circuit), un sistema en chip (SOC = System on Chip), un elemento lógico programable o una matriz de compuertas programables en campo con un microprocesador (FPGA = Field Programmable Gate Array).
El medio de almacenamiento digital puede, por ello, ser legible por máquina o por computadora. Algunos ejemplos de realización comprenden, por lo tanto, un soporte de datos, que presenta señales de control legibles electrónicamente, que son capaces de interaccionar con un sistema informático programable o un componente de hardware programable, de tal manera que se realiza uno de los procedimientos descritos en el presente documento. Un ejemplo de realización es, por lo tanto, un soporte de datos (o un medio de almacenamiento digital o un medio legible por computadora), sobre el que está grabado el programa para la realización de uno de los procedimientos descritos en el presente documento.
En general, los ejemplos de realización de la presente invención pueden estar implementados como programa, firmware, programa informático, producto de programa informático con un código de programa o como datos, siendo el código de programa o los datos eficaces en el sentido de que realizan uno de los procedimientos, cuando el programa se ejecuta en un procesador o un componente de hardware programable. El código de programa o los datos puede o bien pueden, por ejemplo, estar almacenados sobre un soporte o soporte de datos legible por máquina. El código de programa o los datos pueden, entre otros, estar presentes como código fuente, código máquina o bytecode, así como otro código intermedio.
Otro ejemplo de realización es, además, un flujo de datos, una sucesión de señales o una secuencia de señales, que representa o bien representan el programa para la realización de uno de los procedimientos descritos en el presente documento. El flujo de datos, la sucesión de señales o la secuencia de señales puede o bien pueden, por ejemplo, estar configurados en el sentido de que se transfieren a través de una conexión de comunicación de datos, por ejemplo, a través del Internet u otra red. Ejemplos de realización son, de esta manera, también sucesiones de señales que representan datos, que son adecuadas para un envío a través de una red o una conexión de comunicación de datos, representando los datos el programa.
Un programa de acuerdo con un ejemplo de realización puede implementar uno de los procedimientos mientras su realización, por ejemplo, dado que éste lee posiciones de almacenamiento o escribe en éstas una fecha o varios datos, por lo cual, dado el caso, se provocan procesos de conmutación u otros procesos en estructuras de transistores, en estructuras de amplificador o en otros componentes eléctricos, ópticos, magnéticos o que trabajan según otro principio de funcionamiento. De manera correspondiente, mediante una lectura de una posición de almacenamiento, se captan, determinan o miden datos, valores, datos de sensor u otras informaciones por un programa. Un programa, por ello, mediante una lectura de una o varias posiciones de almacenamiento, puede captar, determinar o medir magnitudes, valores, valores de medición y otras informaciones, así como, mediante una escritura en una o varias posiciones de almacenamiento puede provocar, inducir o realizar una acción, así como controlar otros aparatos, máquinas y componentes.
Los ejemplos de realización arriba descritos representan únicamente una ilustración de los principios de la presente invención. Se entiende que, modificaciones y variaciones de las disposiciones y detalles descritos en el presente documento serán obvios para otros expertos. Por ello, está previsto que la invención esté limitada únicamente por el ámbito de protección de las siguientes reivindicaciones y no por los detalles específicos, que han sido presentados en el presente documento mediante la descripción y la explicación de los ejemplos de realización.
Lista de símbolos de referencia
100 Interfaz de manejo
110 elemento de visualización sensible al tacto
120 sensor
130 circuito de control
140 superficie de visualización
150 elemento de contacto
160 dedo
170 área de detección
180 área de detección adicional
190 elemento de manejo virtual
S100 visualización de una información
S110 registro de una presencia en el área de detección
S120 captación de un período de tiempo
S130 ¿registro de un contacto?
S140 desencadenamiento o realización de una acción
S150 fin
S160 ¿lapso de tiempo predeterminado sobrepasado?
S170 reproducción de una información o modificación de una representación S180 ¿reproducción desactivada?
S190 registro de una detención en el área de detección adicional S200 lapso de tiempo adicional predeterminado sobrepasado

Claims (15)

REIVINDICACIONES
1. Interfaz (100) de manejo con las siguientes características:
un elemento (110) de visualización sensible al tacto y al menos un sensor (120) que están configurados para visualizar una información sobre el elemento (110) de visualización a un usuario, para registrar un contacto del elemento (110) de visualización con un elemento (150) de contacto mediante el usuario y para registrar una presencia del elemento (150) de contacto en un área (170) de detección, conectándose el área (170) de detección a un lado del elemento (110) de visualización orientado hacia el usuario; y
un circuito (130) de control que está configurado para controlar el elemento (110) de visualización, de tal manera que éste reproduce una información que facilita el manejo de la interfaz (100) de manejo sobre el elemento (110) de visualización, cuando el elemento (150) de contacto se encuentra en el área (170) de detección durante un lapso de tiempo predeterminado, sin que mientras tanto se registrase un contacto del elemento (110) de visualización, estando el circuito (130) de control configurado para controlar el elemento (110) de visualización, de tal manera que la reproducción de la información que facilita el manejo comprende un resalte óptico de al menos un elemento (190) de manejo virtual representado sobre el elemento de visualización.
2. Interfaz (100) de manejo de acuerdo con la reivindicación 1, en la que el elemento (110) de visualización sensible al tacto y el al menos un sensor (120) están configurados, de tal manera que el área (170) de detección encierra esencialmente por completo al elemento (110) de visualización sensible al tacto, de tal manera que el elemento (150) de contacto pasa el área (170) de detección, cuando el usuario mueve el elemento (150) de contacto hacia el elemento (110) de visualización sensible al tacto.
3. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones anteriores, en la que el circuito (130) de control está configurado, de modo que el lapso de tiempo predeterminado asciende a al menos 3 s.
4. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones anteriores, en la que el circuito (130) de control está configurado, de tal manera que el lapso de tiempo predeterminado es dependiente de un movimiento del elemento (150) de contacto en o a través del área (170) de detección.
5. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones anteriores, comprendiendo el resalte óptico del al menos un elemento (190) de manejo virtual representado sobre el elemento de visualización, por ejemplo, una visualización con líneas más gruesas y/o resaltadas a color de un borde del al menos un elemento (190) de manejo virtual, por ejemplo, una visualización resaltada a color del al menos un elemento (190) de manejo virtual, por ejemplo, una visualización ampliada del al menos un elemento (190) de manejo virtual, por ejemplo, una visualización del al menos un elemento (190) de manejo virtual en una representación tridimensional o una tridimensional intensificada, por ejemplo, una visualización pulsante del al menos un elemento (190) de manejo virtual y/o, por ejemplo, una visualización del al menos un elemento (190) de manejo virtual con un fenómeno luminoso que rodea el borde del al menos un elemento (190) de manejo virtual, y/o en la que el circuito (130) de control está configurado para controla el elemento (110) de visualización, de tal manera que la reproducción de la información que facilita el manejo comprende una representación de un menú de ayuda y/o una visualización de ayuda.
6. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones anteriores, en la que el circuito (130) de control está configurado para hacer desactivable la reproducción de la información que facilita el manejo de la interfaz (100) de manejo.
7. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones anteriores, en la que el elemento (110) de visualización sensible al tacto y el al menos un sensor (120) están, además, configurados para registrar una presencia del elemento (150) de contacto en un área (180) de detección adicional, conectándose el área (180) de detección adicional a un lado en el área (170) de detección orientado hacia el usuario, y estando el circuito (130) de control configurado para controlar el elemento (110) de visualización, de tal manera que éste reproduce una información adicional que facilita el manejo de la interfaz (100) de manejo, cuando el elemento (150) de contacto se encuentra en el área (180) de detección adicional y el área (170) de detección durante un lapso de tiempo predeterminado adicional, sin que mientras tanto se registrase un contacto del elemento (110) de visualización.
8. Interfaz (100) de manejo de acuerdo con la reivindicación 7, en la que el elemento (110) de visualización sensible al tacto y el al menos un sensor (110) están configurados, de tal manera que el área (180) de detección adicional encierra esencialmente por completo al área (170) de detección, de tal manera que el elemento (150) de contacto pasa el área (180) de detección adicional cuando el usuario mueve el elemento (150) de contacto en el área (170) de detección.
9. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones 7 u 8, en la que el circuito (130) de control está configurado, de modo que el lapso de tiempo predeterminado adicional asciende a al menos 3 s.
10. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones 7 a 9, en la que el circuito (130) de control está configurado, de tal manera que el lapso de tiempo predeterminado adicional es independiente de un movimiento del elemento (150) de contacto en o a través del área (180) de detección adicional.
11. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones 7 a 10, en la que el circuito (130) de control está configurado para controlar el elemento (110) de visualización, de tal manera que la reproducción de la información adicional que facilita el manejo de la interfaz (100) de manejo comprende un resalte tenue de al menos un elemento (190) de manejo virtual representado sobre el elemento (110) de visualización, por ejemplo, mediante una visualización de un borde del al menos un elemento (190) de manejo virtual con líneas más gruesas y/o resaltadas a color, por ejemplo, mediante una visualización resaltada a color del al menos un elemento (190) de manejo virtual, por ejemplo, mediante una visualización ampliada del al menos un elemento (190) de manejo virtual, por ejemplo, mediante una visualización del al menos un elemento (190) de manejo virtual en una representación tridimensional o tridimensional intensificada, por ejemplo, mediante una visualización pulsante del al menos un elemento (190) de manejo virtual y/o, por ejemplo, mediante una visualización del al menos un elemento (190) de manejo virtual con un fenómeno luminoso que rodea el borde del al menos un elemento (190) de manejo virtual, y/o en la que el circuito (130) de control está configurado para controla el elemento (110) de visualización, de tal manera que la reproducción de la información adicional que facilita el manejo comprende una representación de un menú de ayuda y/o una visualización de ayuda.
12. Interfaz (100) de manejo de acuerdo con una de las reivindicaciones anteriores, en la que el elemento (110) de visualización sensible al tacto y el al menos un sensor (120) están configurados, de tal manera que el elemento (150) de contacto comprende al menos una parte de un dedo (160) y/o al menos una parte de una mano.
13. Procedimiento para la visualización de una información que facilita el manejo de una interfaz (100) de manejo, que comprende:
visualizar (S110) una información sobre un elemento (110) de visualización sensible al tacto de la interfaz de manejo;
registrar (S110) una presencia de un elemento (150) de contacto en un área (170) de detección, conectándose el área (170) de detección a un lado del elemento (110) de visualización orientado hacia el usuario;
reproducir (S170) la información que facilita el manejo de la interfaz (100) de manejo, mediante resalte óptico de al menos un elemento (190) de manejo virtual representado sobre el elemento de visualización, cuando el elemento (150) de contacto se encuentra en el área (170) de detección durante un lapso de tiempo predeterminado, sin que mientras tanto se registrase un contacto del elemento (110) de visualización.
14. Procedimiento según la reivindicación 13, que comprende, además, un registro (S130) de un contacto del elemento (110) de visualización sensible al tacto con el elemento (150) de contacto mediante el usuario.
15. Programa con un código de programa para la realización de un procedimiento de acuerdo con una de las reivindicaciones 13 o 14, cuando el código de programa se ejecuta en una computadora, un procesador o un componente de hardware programable.
ES13741717T 2012-07-27 2013-07-22 Interfaz de manejo, procedimiento para la visualización de una información que facilita un manejo de una interfaz de manejo y programa Active ES2791770T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012014910.7A DE102012014910A1 (de) 2012-07-27 2012-07-27 Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm
PCT/EP2013/065433 WO2014016256A1 (de) 2012-07-27 2013-07-22 Bedienschnittstelle, verfahren zum anzeigen einer eine bedienung einer bedienschnittstelle erleichternden information und programm

Publications (1)

Publication Number Publication Date
ES2791770T3 true ES2791770T3 (es) 2020-11-05

Family

ID=48875020

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13741717T Active ES2791770T3 (es) 2012-07-27 2013-07-22 Interfaz de manejo, procedimiento para la visualización de una información que facilita un manejo de una interfaz de manejo y programa

Country Status (7)

Country Link
US (1) US20150212641A1 (es)
EP (1) EP2877362B1 (es)
KR (2) KR20170077275A (es)
CN (1) CN104619544B (es)
DE (1) DE102012014910A1 (es)
ES (1) ES2791770T3 (es)
WO (1) WO2014016256A1 (es)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150347527A1 (en) * 2014-05-27 2015-12-03 GM Global Technology Operations LLC Methods and systems for processing and displaying structured data
WO2016056208A1 (ja) * 2014-10-07 2016-04-14 パナソニックIpマネジメント株式会社 電子ミラー装置
EP3035180B1 (de) * 2014-12-17 2018-08-08 Volkswagen Aktiengesellschaft Vorrichtung für eine klimasteuerung, fahrzeug, verfahren und computerprogramm zur bereitstellung eines video- und steuersignals
AU2016281182A1 (en) * 2015-06-15 2018-02-08 Cana Technologies Pty Ltd A computer implemented method, client computing device and computer readable storage medium for data presentation
CN106608188B (zh) * 2015-10-22 2020-08-25 大陆汽车车身电子系统(芜湖)有限公司 基于虚拟开关的汽车电子功能控制方法
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
FR3065092B1 (fr) * 2017-04-07 2019-06-14 Peugeot Citroen Automobiles Sa Procede de commande de vehicule par afficheur tactile
TW201907285A (zh) * 2017-04-28 2019-02-16 日商松下知識產權經營股份有限公司 顯示裝置
EP3489801A1 (en) * 2017-11-24 2019-05-29 Thomson Licensing Method and system for color grading a virtual reality video content
DE112019002604T5 (de) * 2018-05-22 2021-03-25 Murakami Corporation Virtuelle Bildanzeigevorrichtung
EP3991067A1 (en) 2019-06-26 2022-05-04 Google LLC Radar-based authentication status feedback
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
EP3966662B1 (en) 2019-07-26 2024-01-10 Google LLC Reducing a state based on imu and radar
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN113874812A (zh) * 2019-08-30 2021-12-31 谷歌有限责任公司 用于多输入模式的输入模式通知
KR102661485B1 (ko) 2019-08-30 2024-04-29 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
EP3811187B1 (en) 2019-08-30 2021-10-06 Google LLC Input methods for mobile devices

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69230419T2 (de) * 1991-05-31 2000-07-20 Koninkl Philips Electronics Nv Gerät mit einer Mensch-Maschine-Schnittstelle
US6009355A (en) 1997-01-28 1999-12-28 American Calcar Inc. Multimedia information and control system for automobiles
CN100480972C (zh) * 2004-06-29 2009-04-22 皇家飞利浦电子股份有限公司 图形用户界面的多层显示
WO2006003588A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics N.V. Multi-layered display of a graphical user interface
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
DE102007029618A1 (de) 2006-12-21 2008-06-26 Volkswagen Ag Berührungslos aktivierbare Anzeige- und Bedienvorrichtung
US20080165145A1 (en) * 2007-01-07 2008-07-10 Scott Herz Portable Multifunction Device, Method, and Graphical User Interface for Interpreting a Finger Swipe Gesture
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
JP5409773B2 (ja) * 2008-05-08 2014-02-05 ネステク ソシエテ アノニム 飲料ディスペンサとともに使用されるカップの注入レベルの設定
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
KR100969790B1 (ko) * 2008-09-02 2010-07-15 엘지전자 주식회사 이동단말기 및 그 컨텐츠 합성방법
CA2639611A1 (en) * 2008-09-12 2010-03-12 James Franklin Zdralek Bimanual gesture based input and device control system
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
CN102239465A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
GB2466497B (en) * 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
DE102009019561A1 (de) * 2009-04-30 2010-11-04 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Kraftfahrzeug und Anzeigeeinrichtung
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101067814B1 (ko) * 2009-09-30 2011-09-27 주식회사 팬택 이동통신단말기 및 이의 터치 인터페이스 제공 방법
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
DE102009059867A1 (de) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle
CN102725783B (zh) * 2010-01-29 2015-11-25 三菱电机株式会社 地图信息处理装置
CN101930338A (zh) * 2010-07-19 2010-12-29 苏州佳世达电通有限公司 触控系统及其控制方法
GB201013117D0 (en) * 2010-08-04 2010-09-22 Elliptic Laboratories As Control of electronic devices
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US8928635B2 (en) * 2011-06-22 2015-01-06 Apple Inc. Active stylus
CN104285202B (zh) * 2012-03-14 2018-02-02 诺基亚技术有限公司 触屏悬停输入处理方法和装置
TWI464640B (zh) * 2012-04-03 2014-12-11 Wistron Corp 手勢感測裝置及具有手勢輸入功能的電子系統
CN102707885B (zh) * 2012-05-02 2016-04-13 华为终端有限公司 一种触摸屏的操作方法及终端
US20140006944A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Visual UI Guide Triggered by User Actions

Also Published As

Publication number Publication date
KR20170077275A (ko) 2017-07-05
DE102012014910A1 (de) 2014-01-30
KR20150032324A (ko) 2015-03-25
WO2014016256A1 (de) 2014-01-30
CN104619544B (zh) 2020-01-10
CN104619544A (zh) 2015-05-13
US20150212641A1 (en) 2015-07-30
EP2877362A1 (de) 2015-06-03
EP2877362B1 (de) 2020-03-25

Similar Documents

Publication Publication Date Title
ES2791770T3 (es) Interfaz de manejo, procedimiento para la visualización de una información que facilita un manejo de una interfaz de manejo y programa
ES2795013T3 (es) Sistema multifuncional de visualización y control y método de control de dicho sistema con una representación de mando gráfica optimizada
ES2747375T3 (es) Método para visualizar e ingresar información en un vehículo de motor y dispositivo de visualización
US8134539B2 (en) Digital picture frame having near-touch and true-touch
ES2739799T5 (es) Procedimiento para guía del operador, componente de pantalla y producción de un componente de pantalla
JP4677893B2 (ja) 車載遠隔操作装置
EP1983402A1 (en) Input device and its method
KR101803222B1 (ko) 제스처 감지 중에 입력 수단의 3d 위치를 시그널링하기 위한 사용자 인터페이스 및 방법
CN105144070B (zh) 用于在车辆中提供图形用户界面的方法和装置
US9684392B2 (en) In-car operation display device
CN107111471B (zh) 交通工具、用户界面和用于在两个显示装置上交叠地显示显示内容的方法
US9511669B2 (en) Vehicular input device and vehicular cockpit module
JP2010537288A (ja) 車両における情報表示方法および車両用表示装置
RU2617621C2 (ru) Способ и устройство для отображения кисти руки оператора элемента управления транспортного средства
US20150015521A1 (en) Gesture input operation processing device
WO2016143613A1 (ja) ミラー、車載操作装置、および車両
US20200401818A1 (en) Camera monitroing system for motor vehicles
JP2015060303A (ja) 情報処理装置
BR102020015119A2 (pt) Sistema de visão multicâmeras
CN109923508A (zh) 用于运行操作系统的方法和操作系统
ES2854056T3 (es) Interfaz de usuario y método para cambiar entre las vistas de pantalla de una interfaz de usuario
JP2009294720A (ja) 車載機器操作装置
US10235015B2 (en) Method for controlling a display surface of an operator control device and operator control device in a vehicle
EP3748476B1 (en) Electronic device, control method, and program
JP6265839B2 (ja) 入力表示装置、電子機器、アイコンの表示方法および表示プログラム