ES2776103T3 - Procedure and apparatus to display graphical user interface depending on a contact pattern of the user - Google Patents

Procedure and apparatus to display graphical user interface depending on a contact pattern of the user Download PDF

Info

Publication number
ES2776103T3
ES2776103T3 ES09167533T ES09167533T ES2776103T3 ES 2776103 T3 ES2776103 T3 ES 2776103T3 ES 09167533 T ES09167533 T ES 09167533T ES 09167533 T ES09167533 T ES 09167533T ES 2776103 T3 ES2776103 T3 ES 2776103T3
Authority
ES
Spain
Prior art keywords
sensor
contact
user
unit
contact pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09167533T
Other languages
Spanish (es)
Inventor
Yong Gook Park
Min Kyu Park
Hee Jeong Choo
Hyun Ki Kim
Hyun Jin Kim
Ji Yeon Kwak
Eun Young Lim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2776103T3 publication Critical patent/ES2776103T3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un procedimiento para mostrar una interfaz gráfica de usuario, GUI, en una pantalla (130) de toque que comprende una unidad (132) de visualización en un aparato (100) que comprende además una unidad (110) de sensor táctil diferente de una unidad (134) de sensor de toque incluida en la pantalla (130) de toque, estando la unidad de sensor táctil ubicada en un lado lateral del aparato (100), comprendiendo el procedimiento: detectar (S210) un contacto de la unidad (110) de sensor táctil; determinar (S220) un patrón de contacto del contacto detectado; mostrar (S240) la GUI en base al patrón de contacto; y caracterizado por detectar, después de mostrar (S240) la GUI en base al patrón de contacto, un aumento de presión de contacto de la unidad (110) de sensor táctil, y cambiar una ubicación o tamaño de visualización de los elementos de GUI de acuerdo con la presión del contacto detectado y ejecutar una aplicación específica cuando la presión aumenta más allá de un umbral predeterminado.A method of displaying a graphical user interface, GUI, on a touch screen (130) comprising a display unit (132) in an apparatus (100) further comprising a touch sensor unit (110) other than a unit (134) of the touch sensor included in the touch screen (130), the touch sensor unit being located on one side of the apparatus (100), the procedure comprising: detecting (S210) a contact of the unit (110) touch sensor; determining (S220) a contact pattern of the detected contact; displaying (S240) the GUI based on the contact pattern; and characterized by detecting, after displaying (S240) the GUI based on the contact pattern, an increase in contact pressure of the touch sensor unit (110), and changing a display location or size of the GUI elements of the according to the pressure of the detected contact and execute a specific application when the pressure rises beyond a predetermined threshold.

Description

DESCRIPCIÓNDESCRIPTION

Procedimiento y aparato para mostrar interfaz gráfica de usuario dependiendo de un patrón de contacto del usuario Procedure and apparatus for displaying graphical user interface depending on a user contact pattern

Antecedentes de la invenciónBackground of the invention

Campo de la invenciónField of the invention

Realizaciones ejemplares de la presente invención se refieren a una interfaz gráfica de usuario (GUI) para dispositivos electrónicos y, en particular, a un procedimiento y aparato para mostrar una GUI de acuerdo con un patrón de contacto del usuario.Exemplary embodiments of the present invention relate to a graphical user interface (GUI) for electronic devices and, in particular, to a method and apparatus for displaying a GUI according to a user contact pattern.

Descripción de los antecedentesBackground description

Se puede usar una pantalla de toque como unidad de visualización y una unidad de entrada. Por lo tanto, los dispositivos electrónicos que tienen una pantalla de toque pueden no requerir unidades de visualización y entrada adicionales. Debido a esta ventaja, una pantalla de toque puede usarse ampliamente para dispositivos electrónicos de tamaño limitado tales como, por ejemplo, dispositivos móviles, los cuales también pueden denominarse como dispositivos portátiles o dispositivos de mano.A touch screen can be used as a display unit and an input unit. Therefore, electronic devices that have a touch screen may not require additional display and input units. Due to this advantage, a touch screen can be widely used for electronic devices of limited size such as, for example, mobile devices, which can also be referred to as portable devices or handheld devices.

Típicamente, un usuario puede manipular una pantalla de toque con una mano o ambas manos para ordenar una ejecución de una función o aplicación deseada. Cuando un usuario usa ambas manos, una mano puede asir un dispositivo, y la otra mano puede tocar una pantalla de toque del dispositivo. Sin embargo, cuando un usuario usa solo una mano, partes de la pantalla de toque a menudo pueden estar ocultas por un dedo (por ejemplo, el pulgar) de una mano que está asiendo.Typically, a user can manipulate a touch screen with one hand or both hands to command a desired function or application execution. When a user uses both hands, one hand can grasp a device, and the other hand can touch a device's touch screen. However, when a user uses only one hand, parts of the touch screen can often be hidden by a finger (for example, the thumb) of a hand that they are grasping.

La figura 10A es un ejemplo ilustrativo que muestra un pulgar izquierdo del usuario seleccionando uno de los iconos de menú que se muestran en una pantalla de toque. En este ejemplo, si un usuario toca un icono específico (por ejemplo, Icono de Música) ubicado en la porción superior derecha en la pantalla de toque, algunos de los otros iconos (por ejemplo, Icono de Juego, Icono de Visualización, e Icono de Programador) que se muestran en la pantalla de toque pueden estar totalmente o de manera parcial ocultos por el pulgar. Adicionalmente, estos iconos ocultos pueden estar en contacto con el pulgar, y de esa manera las funciones asociadas con los iconos ocultos pueden ejecutarse de manera indeseable.Figure 10A is an illustrative example showing a user's left thumb selecting one of the menu icons displayed on a touch screen. In this example, if a user touches a specific icon (for example, Music Icon) located in the upper right portion of the touch screen, some of the other icons (for example, Game Icon, Display Icon, and Icon Programmer) displayed on the touch screen may be partially or totally hidden by the thumb. Additionally, these hidden icons can be in contact with the thumb, and thus the functions associated with the hidden icons can be performed in an undesirable manner.

La figura 10B es otro ejemplo ilustrativo que muestra un pulgar izquierdo del usuario tocando una barra de desplazamiento presentada en la pantalla de toque. Si el usuario toca la barra de desplazamiento ubicada en el lado derecho de la pantalla de toque, el contenido mostrado (por ejemplo, escena) puede estar oculto por el pulgar. Adicionalmente, algo del contenido mostrado puede ser tocado de manera indeseable con el pulgar y acceder a él. FIG. 10B is another illustrative example showing a user's left thumb touching a scroll bar displayed on the touch screen. If the user touches the scroll bar located on the right side of the touch screen, the displayed content (eg scene) may be hidden by the thumb. Additionally, some of the displayed content can be undesirably touched with the thumb and accessed.

Un dispositivo electrónico que tenga sensores táctiles puede proporcionar control de aplicaciones de dispositivo electrónico solo si un usuario mantiene contacto con una parte específica del dispositivo sin usar una pantalla de toque o un teclado. Tales dispositivos electrónicos pueden proporcionar una pantalla de visualización con una GUI para guiar las entradas basadas en contactos. Si la GUI se muestra en una forma fija independientemente de un patrón de contacto del usuario, algunas posiciones en la GUI pueden fallar al anotar/ingresar el contacto del usuario. Esto puede deberse a diferencias en los tamaños de manos individuales, tamaños de dedos, y formas de asimiento. Es difícil realizar una GUI adaptada para múltiples usuarios. Si no existe una coincidencia entre una posición en la GUI y un punto de contacto del contacto del usuario, se puede generar confusión cuando un usuario manipula aplicaciones en el dispositivo electrónico.An electronic device that has touch sensors can provide electronic device application control only if a user maintains contact with a specific part of the device without using a touch screen or keyboard. Such electronic devices can provide a display screen with a GUI to guide contact-based entries. If the GUI is displayed in a fixed form regardless of a user contact pattern, some positions in the GUI may fail to note / enter the user contact. This may be due to differences in individual hand sizes, finger sizes, and grip shapes. It is difficult to make a GUI adapted for multiple users. If there is no match between a position in the GUI and a point of contact of the user's contact, confusion can result when a user manipulates applications on the electronic device.

El documento US-2006/0111093-A1 divulga un aparato y procedimiento para controlar un terminal portátil. El aparato incluye una unidad de percepción de contacto que percibe un área de la superficie externa del terminal portátil contactado por un usuario cuando el usuario sostiene el terminal portátil. Una unidad de reconocimiento reconoce un modo de función del terminal portátil en base a información sobre el área contactada percibida por la unidad de percepción de contacto. Una unidad de control cambia un terminal portátil a un modo de función reconocido por la unidad de reconocimiento.Document US-2006/0111093-A1 discloses an apparatus and method for controlling a portable terminal. The apparatus includes a contact sensing unit that senses an area of the outer surface of the portable terminal contacted by a user when the user holds the portable terminal. A recognition unit recognizes a function mode of the portable terminal based on information about the contacted area perceived by the contact sensing unit. A control unit switches a portable terminal to a function mode recognized by the recognition unit.

El documento JP-2008-027183-A divulga un procesador de información dispuesto para mostrar una interfaz que sea adecuada para un operador sin entrada específica requerida del operador. El procesador de información incluye una caja plana que está dimensionada para sujetarse con una mano y tiene una forma aproximadamente rectangular. Un dispositivo de visualización tiene una cara de visualización provista en la superficie principal de la caja plana. Los sensores de presión similares a lámina están dispuestos en la primera y segunda caras laterales de la caja plana para detectar una distribución de áreas de contacto entre la primera y segunda caras laterales y la mano humana. Una parte de control controla el contenido mostrado en la cara de visualización por el dispositivo de visualización sobre la base de las salidas de los sensores sensibles a la presión.JP-2008-027183-A discloses an information processor arranged to display an interface that is suitable for an operator with no specific input required from the operator. The information processor includes a flat case that is dimensioned to be held in one hand and is approximately rectangular in shape. A display device has a display face provided on the main surface of the flat box. Sheet-like pressure sensors are arranged on the first and second side faces of the flat box to detect a distribution of contact areas between the first and second side faces and the human hand. A control part controls the content displayed on the display face by the display device based on the outputs of the pressure sensitive sensors.

El documento US-2006/0197750-A1 divulga un dispositivo electrónico de mano con múltiples dispositivos de percepción de toque. Los dispositivos de percepción de toque pueden, por ejemplo, seleccionarse de paneles de toque, pantallas de toque o carcasas sensibles al toque. US-2006/0197750-A1 discloses a handheld electronic device with multiple touch sensing devices. Touch sensing devices can, for example, be selected from touch panels, touch screens or touch sensitive housings.

Sumario de la invenciónSummary of the invention

Realizaciones ejemplares de la presente invención proporcionan un procedimiento y aparato para mostrar una interfaz gráfica de usuario (GUI) adaptada a una mano manipuladora del usuario.Exemplary embodiments of the present invention provide a method and apparatus for displaying a graphical user interface (GUI) adapted to a user's manipulative hand.

Las características adicionales de la invención se describirán en la descripción que sigue, y en parte serán evidentes a partir de la descripción, o pueden aprenderse mediante la práctica de la invención.Additional features of the invention will be described in the description that follows, and in part will be apparent from the description, or may be learned by practice of the invention.

De acuerdo con un primer aspecto de la presente invención se proporciona un procedimiento de acuerdo con la reivindicación 1.According to a first aspect of the present invention there is provided a method according to claim 1.

De acuerdo con un segundo aspecto de la presente invención se proporciona un aparato de acuerdo con la reivindicación 13.According to a second aspect of the present invention there is provided an apparatus according to claim 13.

Debe entenderse que tanto la descripción general anterior como la siguiente descripción detallada son ejemplares y explicativas y están previstas para proporcionar una explicación adicional de la invención reivindicada.It is to be understood that both the above general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the claimed invention.

Breve descripción de los dibujosBrief description of the drawings

Los dibujos adjuntos, que se incluyen para proporcionar un entendimiento adicional de la invención y se incorporan en, y constituyen, una parte de esta memoria descriptiva, ilustran realizaciones ejemplares de la invención, y junto con la descripción sirven para explicar los principios de la invención.The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this specification, illustrate exemplary embodiments of the invention, and together with the description serve to explain the principles of the invention .

La figura 1A es un diagrama de bloques que ilustra una configuración interna de un aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 1A is a block diagram illustrating an internal configuration of an apparatus in accordance with exemplary embodiments of the present invention.

La figura 1B muestra un ejemplo de una unidad de sensor táctil ubicada en los lados laterales del aparato que se muestra en la figura 1A de acuerdo con realizaciones ejemplares de la presente invención.Figure 1B shows an example of a touch sensor unit located on the lateral sides of the apparatus shown in Figure 1A in accordance with exemplary embodiments of the present invention.

La figura 2 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI que depende de una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención.FIG. 2 is a flow chart illustrating a method for displaying a GUI dependent on a manipulator hand in accordance with exemplary embodiments of the present invention.

La figura 3 es un diagrama de flujo que ilustra un ejemplo de un proceso detallado de la etapa de determinación de mano manipuladora en el procedimiento de visualización de GUI que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.Fig. 3 is a flow chart illustrating an example of a detailed process of the manipulative hand determination step in the GUI display procedure shown in Fig. 2 according to exemplary embodiments of the present invention.

La figura 4 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de la etapa de determinación de mano manipuladora en el procedimiento de visualización de GUI que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 4 is a flow chart illustrating another example of a detailed process of the manipulative hand determination step in the GUI display procedure shown in FIG. 2 according to exemplary embodiments of the present invention.

La figura 5 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de la etapa de determinación de mano manipuladora en el procedimiento de visualización de GUI que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 5 is a flow chart illustrating another example of a detailed process of the manipulative hand determination step in the GUI display procedure shown in FIG. 2 according to exemplary embodiments of the present invention.

La figura 6A muestra un ejemplo de un asimiento de mano izquierda y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 6A shows an example of a left hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.

La figura 6B muestra un ejemplo de un asimiento de mano derecha y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 6B shows an example of a right hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.

La figura 7A muestra otro ejemplo de un asimiento de mano izquierda y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 7A shows another example of a left hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.

La figura 7B muestra otro ejemplo de un asimiento de mano derecha y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 7B shows another example of a right hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.

La figura 8 ilustra un ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención. La figura 9 ilustra otro ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención. La figura 10A es un ejemplo ilustrativo que muestra un pulgar izquierdo del usuario seleccionando uno de los iconos de menú mostrados en una pantalla de toque de acuerdo con una GUI convencional.Figure 8 illustrates an example of a GUI in accordance with exemplary embodiments of the present invention. Figure 9 illustrates another example of a GUI in accordance with exemplary embodiments of the present invention. Fig. 10A is an illustrative example showing a user's left thumb selecting one of the menu icons displayed on a touch screen in accordance with a conventional GUI.

La figura 10B es otro ejemplo ilustrativo que muestra un pulgar izquierdo del usuario tocando una barra de desplazamiento presentada en una pantalla de toque de acuerdo con una GUI convencional.Fig. 10B is another illustrative example showing a user's left thumb touching a scroll bar displayed on a touch screen in accordance with a conventional GUI.

La figura 11 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI que depende de una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención. FIG. 11 is a flow chart illustrating a method of displaying a GUI dependent on a manipulator hand in accordance with exemplary embodiments of the present invention.

La figura 12A ilustra un ejemplo de una pantalla en la cual los iconos de menú son mostrados en una aplicación de pantalla inactiva mediante un contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.FIG. 12A illustrates an example of a screen in which menu icons are displayed in an idle screen application by a user contact in accordance with exemplary embodiments of the present invention.

La figura 12B ilustra un ejemplo de una pantalla en la cual los iconos de menú mostrados son cambiados en una aplicación de pantalla inactiva mediante un nuevo contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.FIG. 12B illustrates an example of a screen in which displayed menu icons are changed in an idle screen application by a new user contact in accordance with exemplary embodiments of the present invention.

La figura 13A ilustra un ejemplo de una pantalla en la cual los iconos de función son mostrados en una aplicación de cámara mediante un contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.Figure 13A illustrates an example of a screen in which function icons are displayed in a camera application by a user contact in accordance with exemplary embodiments of the present invention.

La figura 13B ilustra un ejemplo de una pantalla en la cual los iconos de función mostrados son cambiados en una aplicación de cámara mediante un nuevo contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.Figure 13B illustrates an example of a screen in which the displayed function icons are changed in a camera application by a new user contact in accordance with exemplary embodiments of the present invention.

La figura 14A ilustra un ejemplo de una pantalla en la cual los iconos de función son mostrados en una aplicación de MP3 mediante un contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.FIG. 14A illustrates an example of a screen in which function icons are displayed in an MP3 application by a user contact in accordance with exemplary embodiments of the present invention.

La figura 14B ilustra un ejemplo de una pantalla en la cual los iconos de función mostrados son cambiados en una aplicación de MP3 mediante un nuevo contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.Figure 14B illustrates an example of a screen in which displayed function icons are changed in an MP3 application by a new user contact in accordance with exemplary embodiments of the present invention.

Descripción detallada de las realizaciones ilustradasDetailed description of the illustrated embodiments

La invención se describe más completamente de aquí en adelante con referencia a los dibujos adjuntos, en los cuales se muestran realizaciones ejemplares de la invención. Sin embargo, la presente invención puede realizarse de muchas formas diferentes y no debe interpretarse como limitada a las realizaciones ejemplares descritas en la presente memoria. Más bien, estas realizaciones ejemplares se proporcionan de tal manera que esta divulgación sea exhaustiva, y transmitirá completamente el alcance de la invención a los expertos en la técnica. En los dibujos, el tamaño y tamaños relativos de capas y regiones pueden ser exagerados para claridad. Los números de referencia similares en los dibujos denotan elementos similares.The invention is more fully described hereinafter with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. However, the present invention can be made in many different ways and should not be construed as being limited to the exemplary embodiments described herein. Rather, these exemplary embodiments are provided in such a way that this disclosure will be comprehensive, and will fully convey the scope of the invention to those skilled in the art. In the drawings, the size and relative sizes of layers and regions may be exaggerated for clarity. Like reference numerals in the drawings denote like elements.

Se entenderá que, aunque los términos primero, segundo, tercero, etc. pueden usarse en la presente memoria para describir diversos elementos, componentes, regiones, capas y/o secciones, estos elementos, componentes, regiones, capas y/o secciones no deben estar limitados por estos términos. Estos términos solo se usan para distinguir un elemento, componente, región, capa o sección de otra región, capa o sección. De este modo, un primer elemento, componente, región, capa o sección discutido a continuación podría denominarse un segundo elemento, componente, región, capa o sección sin apartarse de las enseñanzas de la presente invención.It will be understood that, although the terms first, second, third, etc. may be used herein to describe various elements, components, regions, layers and / or sections, these elements, components, regions, layers and / or sections should not be limited by these terms. These terms are only used to distinguish one element, component, region, layer, or section from another region, layer, or section. Thus, a first element, component, region, layer or section discussed below could be referred to as a second element, component, region, layer or section without departing from the teachings of the present invention.

Los términos espacialmente relativos, tales como "debajo", "por debajo", "inferior", "por encima", "superior' y similares, se pueden usar en la presente memoria para facilidad de la descripción para describir la relación de un elemento o característica con otros elementos o características como se ilustra en las figuras. Se entenderá que los términos espacialmente relativos están previstos para abarcar diferentes orientaciones del dispositivo en uso u operación además de la orientación representada en las figuras. Por ejemplo, si el dispositivo en las figuras se da vuelta, los elementos descritos como "por debajo" o "debajo" de otros elementos o características entonces estarían orientados "por encima" de los otros elementos o características. De este modo, el término ejemplar "por debajo" puede abarcar tanto una orientación de por encima como por debajo. El dispositivo puede estar orientado de otro modo (girado 90° o en otras orientaciones) y los descriptores espacialmente relativos usados en la presente memoria pueden interpretarse en consecuencia.Spatially relative terms, such as 'below', 'below', 'lower', 'above', 'upper', and the like, may be used herein for ease of description to describe the relationship of an element. or feature with other elements or features as illustrated in the figures. It will be understood that the spatially relative terms are intended to encompass different orientations of the device in use or operation in addition to the orientation depicted in the figures. For example, if the device in the As figures are turned over, items described as "below" or "below" other items or features would then be oriented "above" the other items or features. Thus, the exemplary term "below" can encompass both an overhead orientation as well as underneath. The device can be oriented differently (rotated 90 ° or in other orientations) and the descriptors spatially relative u stes herein may be interpreted accordingly.

La terminología usada en la presente memoria es para el propósito de describir realizaciones ejemplares particulares solamente y no está prevista para ser limitante de la presente invención. Como se usa en la presente memoria, las formas singulares "un", "uno, una" y "el, la" están previstas para incluir también las formas plurales, a menos que el contexto indique claramente otra cosa. Se entenderá además que los términos "comprende" y/o "que comprende", cuando se usan en esta memoria descriptiva, especifican la presencia de características, enteros, etapas, operaciones, elementos, y/o componentes establecidos, pero no excluyen la presencia o adición de una u otras más características, enteros, etapas, operaciones, elementos, componentes, y/o grupos de los mismos.The terminology used herein is for the purpose of describing particular exemplary embodiments only and is not intended to be limiting of the present invention. As used herein, the singular forms "a", "an, an" and "the, the" are intended to include the plural forms as well, unless the context clearly indicates otherwise. It will be further understood that the terms "comprises" and / or "comprising", when used in this specification, specify the presence of established features, integers, steps, operations, elements, and / or components, but do not exclude the presence or addition of one or more other characteristics, integers, stages, operations, elements, components, and / or groups thereof.

A menos que se defina otra cosa, todos los términos (incluyendo los términos técnicos y científicos) usados en la presente memoria tienen el mismo significado como se entienden comúnmente por una persona de experiencia normal en la técnica a la cual pertenece la presente invención. Se entenderá además que los términos, tales como los definidos en los diccionarios usados comúnmente, deben interpretarse como que tienen un significado que es consecuente con su significado en el contexto de la técnica relevante y no se interpretarán en un sentido idealizado o demasiado formal a menos que así se defina expresamente en la presente memoria. Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. It will be further understood that terms, such as those defined in commonly used dictionaries, should be construed as having a meaning that is consistent with their meaning in the context of the relevant art and will not be interpreted in an idealized or overly formal sense unless as expressly defined herein.

Adicionalmente, las técnicas, elementos, estructuras, y procesos bien conocidos o ampliamente usados pueden no describirse o ilustrarse en detalle para evitar ocultar la esencia de las realizaciones ejemplares.Additionally, well-known or widely used techniques, elements, structures, and processes may not be described or illustrated in detail to avoid concealing the essence of the exemplary embodiments.

Antes de explicar realizaciones ejemplares de la presente invención, se definirá la terminología relevante para la descripción a continuación.Before explaining exemplary embodiments of the present invention, relevant terminology will be defined for the description below.

Una interfaz gráfica de usuario (GUI) puede referirse a una pantalla gráfica provista en una pantalla (por ejemplo, monitor) de un dispositivo electrónico. La GUI puede incluir al menos una ventana, al menos un icono, al menos una barra de desplazamiento, y cualquier otro ítem gráfico usado para ingresar comandos al dispositivo por un usuario. Debe entenderse que realizaciones ejemplares de la presente invención pueden incluir diversos tipos de GUIs en diversas formas, diseños, y configuraciones.A graphical user interface (GUI) can refer to a graphical display provided on a screen (eg, monitor) of an electronic device. The GUI can include at least one window, at least one icon, at least one scroll bar, and any other graphical items used to enter commands to the device by a user. It should be understood that exemplary embodiments of the present invention may include various types of GUIs in various shapes, designs, and configurations.

Una mano manipuladora puede referirse a una mano del usuario de dispositivo electrónico ocupada con la manipulación de la pantalla de toque del dispositivo electrónico. La mano manipuladora puede incluir una o más manos mediante las cuales se realiza una acción de toque en la pantalla de toque. Adicionalmente, la mano manipuladora puede incluir una o más manos en contacto con el dispositivo electrónico que tiene un sensor táctil. La mano manipuladora puede ser una mano izquierda, mano derecha, o ambas manos del usuario.A manipulative hand may refer to a hand of the electronic device user occupied with manipulating the touch screen of the electronic device. The manipulative hand may include one or more hands by which a touch action is performed on the touch screen. Additionally, the manipulative hand may include one or more hands in contact with the electronic device having a touch sensor. The manipulator hand can be a left hand, right hand, or both hands of the user.

Una unidad de sensor táctil o un sensor táctil puede referirse al menos a un sensor sensible a un toque del usuario. La unidad de sensor táctil puede ser diferente de los sensores de toque incluidos en la pantalla de toque y la unidad de sensor táctil puede estar ubicada en general en al menos un lado lateral del dispositivo. Si un usuario ase el dispositivo, la unidad de sensor táctil puede detectar el contacto entre una mano del usuario y el dispositivo, crear una señal de detección de contacto, y transmitir la señal de detección de contacto a una unidad de control. La unidad de sensor táctil puede estar compuesta por al menos un sensor táctil que puede detectar la extensión de una presión de contacto y la ubicación de contacto/presión. Alternativamente, la combinación de sensores de presión y sensores de toque puede usarse para la unidad de sensor táctil. La unidad de sensor táctil puede incluir una parte izquierda del sensor y una parte derecha del sensor, cada una de las cuales puede estar compuesta por una pluralidad de componentes de sensor. La unidad de sensor táctil se puede formar en el lado superior y/o el lado inferior, o se puede formar en cualquiera y/o todos los lados del dispositivo.A touch sensor unit or a touch sensor can refer to at least one sensor sensitive to a user's touch. The touch sensor unit can be different from the touch sensors included in the touch screen and the touch sensor unit can generally be located on at least one lateral side of the device. If a user grasps the device, the touch sensor unit can detect contact between a user's hand and the device, create a contact detection signal, and transmit the contact detection signal to a control unit. The touch sensor unit may be composed of at least one touch sensor that can detect the extent of a contact pressure and the location of contact / pressure. Alternatively, the combination of pressure sensors and touch sensors can be used for the touch sensor unit. The touch sensor unit may include a left sensor portion and a right sensor portion, each of which may be comprised of a plurality of sensor components. The touch sensor unit can be formed on the upper side and / or the lower side, or it can be formed on any and / or all sides of the device.

Los componentes de sensor pueden referirse a elementos que constituyen la unidad de sensor táctil. Cada componente de sensor puede detectar por separado un contacto del usuario. El número de componentes de sensor incluidos en la unidad de sensor táctil puede determinarse en base al tipo o tamaño de componentes de sensor. Sensor components can refer to elements that make up the touch sensor unit. Each sensor component can separately detect a user contact. The number of sensor components included in the touch sensor unit can be determined based on the type or size of sensor components.

Un grupo de componentes puede referirse a un conjunto de componentes de sensor dispuestos en secuencia entre los componentes de sensor de detección de contacto. El grupo de componentes puede usarse para crear información de patrón de contacto. La ubicación del grupo de componentes y el número de componentes de sensor incluidos en un único grupo de componentes pueden variar de acuerdo con la forma de asimiento del usuario.A group of components can refer to a set of sensor components arranged in sequence between the contact detection sensor components. The component group can be used to create contact pattern information. The location of the component group and the number of sensor components included in a single component group may vary according to the user's grasp.

De aquí en adelante, se describen en detalle realizaciones ejemplares de la presente invención con referencia a los dibujos adjuntos.Hereinafter, exemplary embodiments of the present invention are described in detail with reference to the accompanying drawings.

La figura 1A es un diagrama de bloques que ilustra una configuración interna de un aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 1A is a block diagram illustrating an internal configuration of an apparatus in accordance with exemplary embodiments of the present invention.

Refiriéndose a la figura 1A, el aparato 100 puede ser un terminal de comunicación móvil, un terminal portátil tal como un asistente digital personal (PDA), un ordenador, un TV, o cualquier otro dispositivo electrónico que tenga una pantalla de toque. El aparato 100 puede incluir una unidad 110 de sensor táctil, una unidad 120 de memoria, una pantalla 130 de toque, y una unidad 140 de control.Referring to FIG. 1A, apparatus 100 can be a mobile communication terminal, a portable terminal such as a personal digital assistant (PDA), a computer, a TV, or any other electronic device that has a touch screen. Apparatus 100 may include a touch sensor unit 110, a memory unit 120, a touch screen 130, and a control unit 140.

La unidad 110 de sensor táctil puede detectar el contacto de una mano del usuario cuando un usuario ase el aparato 100. La unidad 110 de sensor táctil puede detectar la extensión de la presión del contacto y una ubicación del contacto/presión. La unidad 110 de sensor táctil puede estar compuesta de sensores táctiles, sensores de toque, y/o una combinación de sensores de presión y sensores de toque. La unidad 110 de sensor táctil puede estar ubicada en un lado lateral del aparato 100, pero no limitada al mismo. En algunas realizaciones ejemplares, la unidad 110 de sensor táctil puede estar ubicada en cada lado del aparato 100.The touch sensor unit 110 can detect the contact of a user's hand when a user grasps the apparatus 100. The touch sensor unit 110 can detect the extent of contact pressure and a location of the contact / pressure. The touch sensor unit 110 can be comprised of touch sensors, touch sensors, and / or a combination of pressure sensors and touch sensors. The touch sensor unit 110 may be located on a lateral side of the apparatus 100, but is not limited thereto. In some exemplary embodiments, the touch sensor unit 110 may be located on each side of the apparatus 100.

La figura 1B muestra un ejemplo de la unidad 110 de sensor táctil ubicada en los lados laterales del aparato 100. Después de detectar el contacto de una mano del usuario, la unidad 110 de sensor táctil puede transmitir una señal de detección de contacto a la unidad 140 de control. La unidad 110 de sensor táctil puede incluir una parte izquierda del sensor y una parte derecha del sensor, cada una de las cuales puede estar compuesta por una pluralidad de componentes de sensor.Figure 1B shows an example of the touch sensor unit 110 located on the lateral sides of the apparatus 100. After detecting the contact of a user's hand, the touch sensor unit 110 can transmit a contact detection signal to the unit. 140 control. The touch sensor unit 110 may include a left sensor portion and a right sensor portion, each of which may be comprised of a plurality of sensor components.

La unidad 120 de memoria puede almacenar una variedad de programas necesarios para realizar funciones del aparato 100 y datos creados mientras se realizan tales funciones. La unidad 120 de memoria puede almacenar datos relacionados con un proceso de asumir una mano manipuladora y la información de patrón de contacto. The memory unit 120 can store a variety of programs necessary to perform functions of the apparatus 100 and data created while performing such functions. The memory unit 120 can store data related to a process of assuming a manipulative hand and the contact pattern information.

La pantalla 130 de toque puede mostrar información y puede recibir entrada de usuario. La pantalla 130 de toque puede incluir una unidad 132 de visualización y una unidad 134 de sensor de toque.The touch screen 130 can display information and can receive user input. The touch screen 130 may include a display unit 132 and a touch sensor unit 134.

La unidad 132 de visualización puede estar formada por una pantalla de cristal líquido (LCD) o cualquier otro tipo adecuado de pantalla. La unidad 132 de visualización puede proporcionar una variedad de información gráfica relacionada con los estados y operaciones del aparato 100. La unidad 132 de visualización puede mostrar una GUI dependiendo de una mano manipuladora. En algunos casos, la unidad 132 de visualización puede mostrar la GUI de acuerdo con la posición de los dedos del usuario que asen el aparato 100.The display unit 132 may be formed by a liquid crystal display (LCD) or any other suitable type of display. The display unit 132 can provide a variety of graphical information related to the states and operations of the apparatus 100. The display unit 132 can display a GUI depending on a manipulative hand. In some cases, the display unit 132 may display the GUI according to the position of the user's fingers grasping the apparatus 100.

La unidad 134 de sensor de toque puede determinar si las manos del usuario tocan la pantalla de toque o no. La unidad 134 de sensor de toque puede estar formada por sensores de toque capacitivos, sensores de presión, y/o cualquier otro sensor adecuado sensible al tacto. Cuando se detecta el toque de la mano del usuario, la unidad 134 de sensor de toque puede transmitir una señal de toque a la unidad 140 de control. La señal de toque puede incluir datos de coordenadas que representan la ubicación de toque del usuario. En algunos casos, la unidad 134 de sensor de toque puede no estar incluida en el aparato 100.The touch sensor unit 134 can determine whether the user's hands touch the touch screen or not. The touch sensor unit 134 may be comprised of capacitive touch sensors, pressure sensors, and / or any other suitable touch sensitive sensor. When the touch of the user's hand is detected, the touch sensor unit 134 may transmit a touch signal to the control unit 140. The touch signal may include coordinate data representing the user's touch location. In some cases, the touch sensor unit 134 may not be included in the apparatus 100.

La unidad 140 de control puede controlar estados y operaciones de uno o más elementos del aparato 100. Por ejemplo, la unidad 140 de control puede recibir una señal de detección de contacto desde la unidad 110 de sensor táctil y puede determinar el patrón de contacto del usuario usando la señal detección de contacto. Adicionalmente, la unidad 140 de control puede indicar a la unidad 132 de visualización que muestre una GUI dependiendo del patrón de contacto del usuario.Control unit 140 may monitor states and operations of one or more elements of apparatus 100. For example, control unit 140 may receive a contact detection signal from touch sensor unit 110 and may determine the contact pattern of the user using the contact detection signal. Additionally, the control unit 140 may instruct the display unit 132 to display a GUI depending on the user's contact pattern.

La figura 2 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI que depende de una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención.FIG. 2 is a flow chart illustrating a method for displaying a GUI dependent on a manipulator hand in accordance with exemplary embodiments of the present invention.

Refiriéndose a la figura 2, la unidad 110 de sensor táctil puede detectar un contacto del usuario (S210). El contacto del usuario puede ser un resultado del usuario al asir el aparato 100. Cuando se detecta el contacto del usuario, la unidad 110 de sensor táctil puede transmitir la señal de detección de contacto a la unidad 140 de control.Referring to FIG. 2, the touch sensor unit 110 can detect a user contact (S210). The user contact can be a result of the user grasping the apparatus 100. When the user contact is detected, the touch sensor unit 110 can transmit the contact detection signal to the control unit 140.

La unidad 140 de control puede recibir la señal de detección de contacto de la unidad 110 de sensor táctil (S220). A continuación, la unidad 140 de control puede determinar el patrón de contacto del usuario y de esa manera puede determinar una mano manipuladora (S230). La etapa S230 se ilustra en detalle en la figura 3, figura 4, y figura 5. The control unit 140 may receive the contact detection signal from the touch sensor unit 110 (S220). Then, the control unit 140 can determine the contact pattern of the user and thereby can determine a manipulative hand (S230). Step S230 is illustrated in detail in Figure 3, Figure 4, and Figure 5.

Después de la etapa S230, la unidad 140 de control puede indicar a la pantalla 130 de toque que muestre una GUI en base a la mano manipuladora (S240). La unidad 140 de control puede entonces decidir si recibe una señal de detección de contacto adicional de la unidad 110 de sensor táctil (S250). Si la unidad 140 de control decide recibir señales de detección de contacto adicionales, el procedimiento para mostrar una GUI puede volver a la etapa S230 para redeterminar el patrón de contacto del usuario y redeterminar además la mano manipuladora. La señal de detección de contacto adicional se puede proporcionar mediante la unidad 110 de sensor táctil cuando el usuario cambia una forma de asimiento.After step S230, the control unit 140 may instruct the touch screen 130 to display a GUI based on the manipulating hand (S240). The control unit 140 can then decide whether to receive a further contact detection signal from the touch sensor unit 110 (S250). If the control unit 140 decides to receive additional contact detection signals, the procedure for displaying a GUI may return to step S230 to redetermine the user's contact pattern and further redetermine the manipulator hand. The additional contact detection signal can be provided by the touch sensor unit 110 when the user changes a grip shape.

Si la unidad 140 de control no recibe señal de detección de contacto adicional de la unidad 110 de sensor táctil, la unidad 132 de visualización puede mantener una GUI actual. A partir de ahí, el usuario puede manipular la GUI mostrada en la pantalla 130 de toque para ingresar un comando al aparato 100.If the control unit 140 does not receive additional contact detection signal from the touch sensor unit 110, the display unit 132 can maintain a current GUI. From there, the user can manipulate the GUI displayed on the touch screen 130 to enter a command to the apparatus 100.

La figura 3 es un diagrama de flujo que ilustra un ejemplo de un proceso detallado de la etapa S230 que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 3 is a flowchart illustrating an example of a detailed process of step S230 shown in FIG. 2 according to exemplary embodiments of the present invention.

Refiriéndose a la figura 3, la unidad 140 de control puede generar al menos un grupo de componentes en base a la señal de detección de contacto recibida desde la unidad 110 de sensor táctil (S310). Como se indicó anteriormente, el grupo de componentes puede referirse a un conjunto de componentes de sensor dispuestos en una o más secuencias entre los componentes de sensor de detección de contacto.Referring to FIG. 3, the control unit 140 can generate at least one group of components based on the contact detection signal received from the touch sensor unit 110 (S310). As noted above, the component group can refer to a set of sensor components arranged in one or more sequences among the touch-sensing sensor components.

Realizaciones ejemplares de los componentes de sensor y el grupo de componentes se ilustran en la figura 6A, figura 6B, figura 7A, y figura 7B.Exemplary embodiments of the sensor components and the component group are illustrated in Figure 6A, Figure 6B, Figure 7A, and Figure 7B.

La figura 6A muestra un ejemplo de un usuario que sostiene el aparato 100 con un asimiento de mano izquierda. La unidad 110 de sensor táctil puede ubicarse en un lado lateral del aparato 100. La parte izquierda del sensor puede ubicarse en el lado lateral izquierdo del aparato 100, y la parte derecha del sensor puede ubicarse en el lado lateral derecho del aparato 100. Cada parte de sensor puede estar compuesta por una pluralidad de componentes de sensor. El número de componentes de sensor puede variar de acuerdo con un tamaño de los componentes de sensor. Por ejemplo, cuanto más pequeños son dimensionados los componentes de sensor, más componentes de sensor pueden estar dispuestos en los lados laterales del aparato 100. En la figura 6A, por ejemplo, el número de los componentes de sensor que pertenecen a cada parte de sensor puede ser veintitrés. Los componentes marcados entre los componentes de sensor en la parte izquierda del sensor pueden representar componentes que han detectado contacto con la mano izquierda. Entre los componentes de sensor en la parte derecha del sensor, los componentes marcados pueden representar componentes que han detectado contacto con los dedos de la mano izquierda (por ejemplo, cuatro dedos excepto el pulgar). Los componentes de detección de contacto pueden agruparse por sus disposiciones en secuencia. Por ejemplo, nueve componentes dispuestos secuencialmente en la parte izquierda del sensor pueden asignarse a un grupo. Y, cuatro pares de dos componentes en la parte derecha del sensor pueden asignarse a cuatro grupos.Figure 6A shows an example of a user holding the apparatus 100 with a left hand grip. The touch sensor unit 110 can be located on one side of the device 100. The left part of the sensor can be located on the left side of the device 100, and the right part of the sensor can be located on the right side of the device 100. Each sensor part may be composed of a plurality of sensor components. The number of sensor components may vary according to a size of the sensor components. For example, the smaller the sensor components are dimensioned, the more sensor components can be arranged on the lateral sides of the apparatus 100. In Figure 6A, for example, the number of the sensor components belonging to each sensor part it can be twenty-three. Components marked between sensor components on the left side of the sensor may represent components that have detected left hand contact. Among the sensor components on the right side of the sensor, the marked components may represent components that have detected contact with the fingers of the left hand (for example, four fingers except the thumb). Contact sensing components can be grouped by their arrangements into sequence. For example, nine components arranged sequentially on the left side of the sensor can be assigned to a group. And, four pairs of two components on the right side of the sensor can be assigned to four groups.

Volviendo a la figura 3, después de la etapa S310 de generar el grupo de componentes, la unidad 140 de control puede crear información de patrón de contacto en base al grupo de componentes (S320). Por lo tanto, la información de patrón de contacto puede ser diferente en base a cómo el usuario ase el aparato 100. La información de patrón de contacto puede incluir, por ejemplo, el número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.Returning to Fig. 3, after step S310 of generating the group of components, the control unit 140 can create contact pattern information based on the group of components (S320). Therefore, the contact pattern information may be different based on how the user grasps the apparatus 100. The contact pattern information may include, for example, the number of component groups in each sensor part, the location of component groups, the interval between component groups, the number of sensor components in each component group, and / or pressure sensing data for each sensor component.

Refiriéndose a la figura 6A, la información de patrón de contacto de la parte izquierda del sensor puede contener los siguientes datos: un grupo de componentes compuesto por nueve componentes de sensor ubicados, por ejemplo, desde el duodécimo componente de sensor hasta el vigésimo componente de sensor. La información de patrón de contacto de la parte derecha del sensor puede contener los siguientes datos: cuatro grupos de componentes, cada uno de los cuales está compuesto por dos componentes de sensor ubicados, por ejemplo, en la cuarta, quinta, novena, décima, decimocuarta, decimoquinta, decimonovena, y vigésima posiciones de componentes. Se pueden interponer tres componentes de sensor entre dos grupos de componentes adyacentes.Referring to Figure 6A, the contact pattern information on the left side of the sensor may contain the following data: a component group consisting of nine sensor components located, for example, from the twelfth sensor component to the twentieth component of sensor. The contact pattern information on the right side of the sensor can contain the following data: four groups of components, each of which is composed of two sensor components located, for example, in the fourth, fifth, ninth, tenth, fourteenth, fifteenth, nineteenth, and twentieth component positions. Three sensor components can be interposed between two groups of adjacent components.

Volviendo a la figura 3, la unidad 140 de control puede recuperar información de patrón de contacto almacenada de la unidad 120 de memoria (S330). La unidad 120 de memoria puede almacenar la información de patrón de contacto, y, en general, puede almacenar información de patrón de contacto diferente que corresponde a diferentes tipos de asimiento. La información de patrón de contacto almacenada en la unidad 120 de memoria puede incluir, por ejemplo, el número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.Returning to FIG. 3, the control unit 140 can retrieve stored contact pattern information from the memory unit 120 (S330). The memory unit 120 can store the contact pattern information, and, in general, can store different contact pattern information corresponding to different types of grasp. Contact pattern information stored in memory unit 120 may include, for example, the number of component groups in each sensor part, the location of component groups, the interval between component groups, the number of components. sensor data for each component group, and / or pressure sensing data for each sensor component.

La unidad 140 de control puede comparar subsecuentemente la información de patrón de contacto creada con la información de patrón de contacto recuperada (S340). Por ejemplo, la unidad 140 de control puede ejecutar comparaciones respectivas del número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.The control unit 140 can subsequently compare the created contact pattern information with the retrieved contact pattern information (S340). For example, the control unit 140 may perform respective comparisons of the number of component groups in each sensor part, the location of component groups, the interval between the component groups, the number of sensor components in each component group. , and / or pressure sensing data for each sensor component.

La unidad 140 de control también puede determinar si la información de patrón de contacto creada está dentro de un intervalo asociado con la información de patrón de contacto recuperada (S350). Cuando la información creada corresponde completamente a la información recuperada, la unidad 140 de control puede determinar que la información creada está dentro del intervalo asociado con la información recuperada. Si previamente se asigna un margen permisible a la información de patrón de contacto almacenada en la unidad 120 de memoria, la información creada puede estar dentro del margen permisible de tal manera que se pueda determinar que la información creada está dentro del intervalo. El margen permisible puede asignarse respectivamente a, por ejemplo, el número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos detección de presión de cada componente de sensor.The control unit 140 may also determine whether the created contact pattern information is within a range associated with the retrieved contact pattern information (S350). When the created information fully corresponds to the retrieved information, the control unit 140 may determine that the created information is within the range associated with the retrieved information. If an allowable range is previously assigned to the contact pattern information stored in the memory unit 120, the created information may be within the allowable range such that it can be determined that the created information is within the range. The allowable range can be respectively assigned to, for example, the number of component groups in each sensor part, the location of component groups, the interval between the component groups, the number of sensor components in each component group, and / or pressure sensing data for each sensor component.

Si la información de patrón de contacto creada está dentro del intervalo de la información de patrón de contacto recuperada, la unidad 140 de control puede determinar la mano manipuladora que corresponde a la información de patrón de contacto creada (S360). La unidad 120 de memoria puede ya tener información almacenada sobre diferentes manos manipuladoras de acuerdo con la información de patrón de contacto diferente. Si la información de patrón de contacto creada pertenece a un intervalo de la información de patrón de contacto recuperada, la unidad 140 de control puede determinar la mano manipuladora que corresponde a la información de patrón de contacto creada. La mano manipuladora determinada puede ser la mano izquierda, o la mano derecha.If the created contact pattern information is within the range of the retrieved contact pattern information, the control unit 140 can determine the manipulator hand that corresponds to the created contact pattern information (S360). The memory unit 120 may already have information stored on different manipulator hands according to the different contact pattern information. If the created contact pattern information belongs to a range of the retrieved contact pattern information, the control unit 140 can determine the manipulative hand that corresponds to the created contact pattern information. The determined manipulative hand can be the left hand, or the right hand.

Si la información de patrón de contacto creada no pertenece al intervalo de la información de patrón de contacto recuperada, la unidad 140 de control puede determinar que la mano manipuladora es ambas manos (S370). Después de determinar la mano manipuladora, la unidad 140 de control puede volver a la etapa previa S240 de mostrar una GUI de acuerdo con la mano manipuladora.If the created contact pattern information does not belong to the range of the retrieved contact pattern information, the control unit 140 may determine that the manipulator hand is both hands (S370). After determining the manipulating hand, the control unit 140 may return to the previous step S240 of displaying a GUI according to the manipulating hand.

La figura 4 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de la etapa S230 que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.Figure 4 is a flow chart illustrating another example of a detailed process of step S230 shown in Figure 2 in accordance with exemplary embodiments of the present invention.

Refiriéndose a la figura 4, la unidad 140 de control puede generar al menos un grupo de componentes que puede ser un conjunto de componentes de sensor dispuestos en secuencia entre componentes de sensor de detección de contacto (S410). La unidad 140 de control puede entonces calcular un número de componentes de sensor contenidos en cada grupo de componentes (S420). Por ejemplo, como se indica en el ejemplo mostrado en la figura 6A, un único grupo de componentes en la parte izquierda del sensor puede tener nueve componentes de sensor, y cada uno de los cuatro grupos de componentes en la parte derecha del sensor puede tener dos componentes de sensor. Referring to FIG. 4, the control unit 140 may generate at least one group of components which may be a set of sensor components arranged in sequence between contact detection sensor components (S410). The control unit 140 can then calculate a number of sensor components contained in each group of components (S420). For example, as indicated in the example shown in Figure 6A, a single group of components on the left side of the sensor can have nine sensor components, and each of the four groups of components on the right side of the sensor can have two sensor components.

Después de calcular el número de componentes de sensor en cada grupo de componentes, la unidad 140 de control puede determinar cual grupo de componentes y parte de sensor pueden tener el número más grande de componentes de sensor de detección de contacto (S430). Por ejemplo, el grupo de componentes más grande puede estar en la parte izquierda del sensor o la parte derecha del sensor, y por consiguiente la unidad 140 de control puede determinar si la parte de sensor más grande es la parte izquierda del sensor o la parte derecha del sensor en la etapa S430. Por ejemplo, refiriéndose a la figura 6A, la unidad 140 de control puede determinar que el grupo de componentes más grande tiene nueve componentes de sensor y está ubicado en la parte izquierda del sensor. Refiriéndose a otro ejemplo ilustrado en la figura 6B, el grupo de componentes más grande puede tener nueve componentes de sensor y puede estar ubicado en la parte derecha del sensor. Por lo tanto, la unidad 140 de control puede determinar que la parte de sensor más grande es la parte derecha del sensor. De manera similar, la parte de sensor más grande puede ser la parte izquierda del sensor en la figura 7A y la parte derecha del sensor en la figura 7B.After calculating the number of sensor components in each component group, the control unit 140 can determine which component group and sensor part may have the largest number of contact detection sensor components (S430). For example, the largest group of components may be on the left side of the sensor or the right side of the sensor, and therefore the control unit 140 can determine whether the larger sensor part is the left side of the sensor or the left side of the sensor. right of the sensor in step S430. For example, referring to FIG. 6A, the control unit 140 may determine that the largest group of components has nine sensor components and is located on the left side of the sensor. Referring to another example illustrated in Figure 6B, the largest component group may have nine sensor components and may be located on the right hand side of the sensor. Therefore, the control unit 140 can determine that the largest sensor part is the right part of the sensor. Similarly, the largest sensor part can be the left part of the sensor in Figure 7A and the right part of the sensor in Figure 7B.

Si la parte de sensor más grande es la parte izquierda del sensor, la unidad 140 de control puede determinar además si la parte izquierda del sensor tiene grupos de componentes adicionales (S440). Los grupos de componentes adicionales pueden referirse a uno o más grupos de componentes situados en la parte de sensor más grande pero ese no es el grupo de componentes más grande. En la figura 6A, por ejemplo, la parte izquierda del sensor, que es la parte de sensor más grande, puede tener el grupo de componentes más grande y ningún grupo de componentes adicional. Sin embargo, en la figura 7A, la parte izquierda del sensor, junto con el grupo de componentes más grande, puede tener un grupo de componentes adicional compuesto por tres componentes de sensor desde el tercer componente de sensor hasta el quinto componente de sensor.If the largest sensor part is the left part of the sensor, the control unit 140 can further determine whether the left part of the sensor has additional component groups (S440). Additional component groups can refer to one or more component groups located in the largest sensor part but that is not the largest component group. In Figure 6A, for example, the left part of the sensor, which is the largest sensor part, may have the largest group of components and no additional group of components. However, in Figure 7A, the left part of the sensor, along with the larger group of components, may have an additional group of components made up of three sensor components from the third sensor component to the fifth sensor component.

Si no hay un grupo de componentes adicional, como se muestra en la figura 6A, la unidad 140 de control puede determinar que la mano manipuladora es la mano izquierda (S450). Entonces se puede considerar que el grupo de componentes más grande está en contacto con la palma de la mano izquierda. También, no tener un grupo de componentes adicional puede indicar que el pulgar de la mano izquierda puede no estar en contacto con la unidad 110 de sensor táctil. En estos casos, la unidad 140 de control puede determinar que un usuario puede manipular la pantalla 130 de toque con el pulgar de la mano izquierda. Es decir, el usuario puede usar su mano izquierda para asir el aparato 100 y tocar la pantalla 130 de toque. La unidad 140 de control puede determinar que la mano manipuladora es la mano izquierda.If there is no additional component group, as shown in FIG. 6A, the control unit 140 can determine that the manipulator hand is the left hand (S450). The largest group of components can then be considered to be in contact with the palm of the left hand. Also, not having an additional set of components may indicate that the thumb of the left hand may not be in contact with the touch sensor unit 110. In these cases, the control unit 140 may determine that a user can manipulate the touch screen 130 with the thumb of the left hand. That is, the user can use his left hand to grasp the apparatus 100 and touch the touch screen 130. The control unit 140 can determine that the manipulator hand is the left hand.

Se pueden realizar etapas similares si se determina que la mano manipuladora es la mano derecha. Por ejemplo, si la parte de sensor más grande es la parte derecha del sensor, la unidad 140 de control puede determinar si la parte derecha del sensor tiene grupos de componentes adicionales (S460). Si la parte derecha del sensor no tiene un grupo de componentes adicional, como se muestra en la figura 6B, la unidad 140 de control puede determinar que la mano manipuladora es la mano derecha (S470).Similar steps can be performed if the manipulating hand is determined to be the right hand. For example, if the largest sensor part is the right part of the sensor, the control unit 140 can determine if the right part of the sensor has additional component groups (S460). If the right part of the sensor does not have an additional component group, as shown in FIG. 6B, the control unit 140 may determine that the manipulator hand is the right hand (S470).

Si la parte derecha del sensor tiene grupos de componentes adicionales, la unidad 140 de control puede determinar que ambas manos pueden ser la mano manipuladora (S480). La presencia de grupos de componentes adicionales puede indicar que el pulgar de la mano que está asiendo del usuario está en contacto con la unidad 110 de sensor táctil. La unidad 140 de control puede determinar que un usuario puede manipular la pantalla 130 de toque con el pulgar de una mano que no está asiendo. Por lo que, la unidad 140 de control determina que la mano manipuladora es ambas manos.If the right side of the sensor has additional component groups, the control unit 140 can determine that both hands can be the manipulator hand (S480). The presence of additional component groups may indicate that the thumb of the user's grasping hand is in contact with the touch sensor unit 110. The control unit 140 may determine that a user can manipulate the touch screen 130 with the thumb of a hand that is not grasping. Therefore, the control unit 140 determines that the manipulator hand is both hands.

La figura 5 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de etapa S230 que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 5 is a flow chart illustrating another example of a detailed process from step S230 shown in FIG. 2 according to exemplary embodiments of the present invention.

Refiriéndose a la figura 5, la unidad 140 de control puede generar al menos un grupo de componentes que puede ser un conjunto de componentes de sensor dispuestos en secuencia entre componentes de sensor de detección de contacto (S510). La unidad 140 de control puede calcular el número de grupos de componentes contenidos en cada parte de sensor (S520). En la figura 6A, figura 6B, figura 7A, y figura 7B, las partes de sensor pueden ser la parte izquierda del sensor y la parte derecha del sensor. En algunos casos, la unidad 140 de control puede calcular simultáneamente el número de grupos de componentes en la parte izquierda del sensor y la parte derecha del sensor. Referring to FIG. 5, the control unit 140 may generate at least one group of components which may be a set of sensor components arranged in sequence between contact detection sensor components (S510). The control unit 140 can calculate the number of component groups contained in each sensor part (S520). In Fig. 6A, Fig. 6B, Fig. 7A, and Fig. 7B, the sensor parts can be the left part of the sensor and the right part of the sensor. In some cases, the control unit 140 can simultaneously calculate the number of component groups on the left side of the sensor and the right side of the sensor.

Por ejemplo, en la figura 6A, el número de grupos de componentes puede ser uno en la parte izquierda del sensor y cuatro en la parte derecha del sensor. En la figura 6B, el número de grupos de componentes puede ser cuatro en la parte izquierda del sensor y uno en la parte derecha del sensor. En la figura 7A, el número de grupos de componentes puede ser dos en la parte izquierda del sensor y cuatro en la parte derecha del sensor. En la figura 7B, el número de grupos de componentes puede ser cuatro en la parte izquierda del sensor y dos en la parte derecha del sensor. For example, in Figure 6A, the number of component groups can be one on the left side of the sensor and four on the right side of the sensor. In Figure 6B, the number of component groups can be four on the left side of the sensor and one on the right side of the sensor. In Figure 7A, the number of component groups can be two on the left side of the sensor and four on the right side of the sensor. In Figure 7B, the number of component groups can be four on the left side of the sensor and two on the right side of the sensor.

La unidad 140 de control puede determinar si el número de grupos de componentes es tres o más en la parte izquierda del sensor y uno o menos en la parte derecha del sensor (S530). Si el número de grupos de componentes es tres o más en la parte izquierda del sensor y uno o menos en la parte derecha del sensor, la unidad 140 de control puede determinar que la mano manipuladora es la mano derecha del usuario (S540). Tres o más grupos de componentes en la parte izquierda del sensor pueden indicar que al menos tres dedos, excepto el pulgar, están en contacto con la parte izquierda del sensor. Un grupo de componentes o menos en la parte derecha del sensor puede indicar que la palma de la mano derecha del usuario está en contacto con la parte derecha del sensor pero el pulgar puede no estar en contacto. En tales casos, la unidad 140 de control puede determinar que el usuario puede manipular la pantalla de toque con el pulgar de la mano derecha del usuario. Es decir, una mano derecha del usuario puede usarse para asir el aparato 100 y tocar la pantalla 130 de toque. Por consiguiente, la unidad 140 de control puede determinar que la mano manipuladora es la mano derecha.The control unit 140 can determine whether the number of component groups is three or more on the left side of the sensor and one or less on the right side of the sensor (S530). If the number of component groups is three or more on the left side of the sensor and one or less on the right side of the sensor, the control unit 140 can determine that the manipulator hand is the user's right hand (S540). Three or more groups of components on the left side of the sensor may indicate that at least three fingers, except the thumb, are in contact with the left side of the sensor. A group of components or less on the right side of the sensor may indicate that the palm of the user's right hand is in contact with the right side of the sensor but the thumb may not be in contact. In such cases, the control unit 140 may determine that the user can manipulate the display screen. tap with the thumb of the user's right hand. That is, a right hand of the user can be used to grasp the apparatus 100 and touch the touch screen 130. Accordingly, the control unit 140 can determine that the manipulator hand is the right hand.

De manera similar, al determinar que la mano manipuladora es la mano izquierda, la unidad 140 de control puede determinar si el número de grupos de componentes es tres o más en la parte derecha del sensor y si es uno o menos en la parte izquierda del sensor (S550).Similarly, by determining that the manipulator hand is the left hand, the control unit 140 can determine whether the number of component groups is three or more on the right side of the sensor and whether it is one or less on the left side of the sensor. sensor (S550).

Si la respuesta es no en ambas etapas 530 y 550, la unidad 140 de control puede determinar que la mano manipuladora es ambas manos (S570).If the answer is no in both steps 530 and 550, the control unit 140 may determine that the manipulator hand is both hands (S570).

La figura 8 ilustra un ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención.Figure 8 illustrates an example of a GUI in accordance with exemplary embodiments of the present invention.

La figura 8 ilustra una realización ejemplar de una pantalla 810 de visualización que tiene iconos de menú y con la mano izquierda determinada como la mano manipuladora. La unidad 140 de control puede disponer los iconos de menú desde la esquina superior izquierda hasta la esquina inferior derecha de la pantalla 810 de visualización para que se correspondan con una trayectoria de movimiento del pulgar izquierdo. Por consiguiente, un usuario puede seleccionar iconos tocando la pantalla 810 de visualización con su pulgar izquierdo para ejecutar funciones deseadas que corresponden a los iconos seleccionados. Dado que los iconos de menú están dispuestos a lo largo de una trayectoria de movimiento del pulgar izquierdo, no se puede ocultar ningún icono del pulgar y se puede evitar un toque inesperado de un icono.Figure 8 illustrates an exemplary embodiment of a display screen 810 having menu icons and with the left hand determined as the manipulative hand. The control unit 140 may arrange the menu icons from the upper left corner to the lower right corner of the display 810 to correspond to a left thumb movement path. Accordingly, a user can select icons by touching the display screen 810 with their left thumb to perform desired functions corresponding to the selected icons. Since the menu icons are arranged along a left thumb movement path, no thumb icon can be hidden and an unexpected touch of an icon can be avoided.

La figura 8 también ilustra una realización ejemplar de una pantalla 820 de visualización con la mano derecha determinada como la mano manipuladora. En tales casos, la unidad 140 de control puede disponer los iconos de menú a lo largo de una trayectoria de movimiento del pulgar derecho. En algunos otros casos cuando se determina que ambas manos son la mano manipuladora, como se muestra mediante la pantalla 830 de visualización en la figura 8, la unidad 140 de control puede mantener una GUI normal cambiable de acuerdo con la intención del usuario.FIG. 8 also illustrates an exemplary embodiment of a right hand display 820 determined as the manipulator hand. In such cases, the control unit 140 may arrange the menu icons along a path of movement of the right thumb. In some other cases when it is determined that both hands are the manipulator hand, as shown by the display screen 830 in FIG. 8, the control unit 140 may maintain a changeable normal GUI in accordance with the intention of the user.

La figura 9 ilustra otro ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención.Figure 9 illustrates another example of a GUI in accordance with exemplary embodiments of the present invention.

La figura 9 ilustra una realización ejemplar de una pantalla 910 de visualización que tiene una barra de desplazamiento y con la mano izquierda determinada como la mano manipuladora. La unidad 140 de control puede disponer la barra de desplazamiento a lo largo del lado izquierdo de la pantalla 910 de visualización para que se corresponda con una trayectoria de movimiento del pulgar izquierdo. Por consiguiente, un usuario puede mover hacia arriba y hacia abajo la barra de desplazamiento arrastrándola con el pulgar izquierdo del usuario. Dado que la barra de desplazamiento puede estar dispuesta a lo largo del lado izquierdo, el contenido mostrado puede no estar oculto por el pulgar y se puede evitar un toque inesperado del contenido mostrado.Figure 9 illustrates an exemplary embodiment of a display screen 910 having a scroll bar and with the left hand determined as the manipulative hand. The control unit 140 may arrange the scroll bar along the left side of the display 910 to correspond to a path of movement of the left thumb. Consequently, a user can move the scroll bar up and down by dragging it with the user's left thumb. Since the scroll bar can be arranged along the left side, the displayed content may not be hidden by the thumb and an unexpected touch of the displayed content can be avoided.

La figura 9 también ilustra una realización ejemplar de una pantalla 920 de visualización que tiene una barra de desplazamiento y con la mano derecha determinada como la mano manipuladora. En tales casos, la unidad 140 de control puede disponer la barra de desplazamiento a lo largo del lado derecho de la pantalla 920 de visualización para que se corresponda con una trayectoria de movimiento del pulgar derecho. Por lo tanto, un usuario puede mover/arrastrar la barra de desplazamiento con el pulgar derecho del usuario sin cubrir ni tocar el contenido mostrado. Por consiguiente, se puede evitar un toque inesperado al contenido mostrado mientras el usuario arrastra la barra de desplazamiento. En algunos otros casos, como se muestra mediante la pantalla 930 de visualización en la figura 9, la unidad 140 de control puede mantener una GUI normal cambiable cuando se determina que ambas manos son la mano manipuladora.Figure 9 also illustrates an exemplary embodiment of a display screen 920 having a scroll bar and with the right hand determined as the manipulator hand. In such cases, the control unit 140 may arrange the scroll bar along the right side of the display 920 to correspond to a path of movement of the right thumb. Therefore, a user can move / drag the scroll bar with the user's right thumb without covering or touching the displayed content. Consequently, an unexpected touch to the displayed content while the user drags the scroll bar can be avoided. In some other cases, as shown by the display screen 930 in FIG. 9, the control unit 140 may maintain a changeable normal GUI when it is determined that both hands are the manipulator hand.

La figura 11 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI en base a una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención. El procedimiento descrito con referencia a la figura 11 puede ser aplicable, por ejemplo, cuando un usuario usa la unidad 110 de sensor táctil para ingresar un comando al aparato 100.FIG. 11 is a flow chart illustrating a method for displaying a GUI based on a manipulator hand in accordance with exemplary embodiments of the present invention. The procedure described with reference to FIG. 11 may be applicable, for example, when a user uses the touch sensor unit 110 to input a command to the apparatus 100.

Refiriéndose a la figura 11, la unidad 110 de sensor táctil puede detectar un contacto del usuario (S1110). El contacto del usuario puede corresponder al asimiento del usuario del aparato 100. Por ejemplo, el usuario puede asir el aparato 100 con una mano como se muestra en la figura 12A y figura 12B o con ambas manos como se muestra en la figura 13A y figura 13B. Cuando se detecta el contacto del usuario, la unidad 110 de sensor táctil puede transmitir la señal de detección de contacto, la cual incluye información sobre la ubicación y presión de contactos, a la unidad 140 de control.Referring to FIG. 11, the touch sensor unit 110 can detect a user contact (S1110). The user's contact may correspond to the user's grasp of the apparatus 100. For example, the user may grasp the apparatus 100 with one hand as shown in FIG. 12A and FIG. 12B or with both hands as shown in FIG. 13A and FIG. 13B. When user contact is detected, the touch sensor unit 110 may transmit the contact detection signal, which includes information about the location and pressure of contacts, to the control unit 140.

La unidad 140 de control puede recibir la señal de detección de contacto de la unidad 110 de sensor táctil (S1120). A continuación, la unidad 140 de control puede determinar el patrón de contacto del usuario dependiendo de la señal de detección de contacto (S1130). La determinación del patrón de contacto del usuario puede basarse en información sobre la ubicación y presión de contactos. En algunos casos, la unidad 120 de memoria puede almacenar una lista de las formas de asimiento del usuario en relación con la ubicación y presión de los contactos del usuario. La unidad 140 de control puede recuperar, desde la unidad 120 de memoria, una forma de asimiento específica que corresponde a la información recibida sobre la ubicación y presión de contactos. Por ejemplo, la unidad 140 de control puede determinar que una mano izquierda del usuario ase el aparato 100 si se reciben dos señales de detección de contacto de la parte izquierda del sensor y cuatro señales de detección de contacto de la parte derecha del sensor, como se muestra en la figura 12A.The control unit 140 may receive the contact detection signal from the touch sensor unit 110 (S1120). Then, the control unit 140 can determine the user's contact pattern depending on the contact detection signal (S1130). Determination of the user's contact pattern may be based on information about contact location and pressure. In some cases, the memory unit 120 may store a list of the user's grasp forms in relation to the location and pressure of the user's contacts. The control unit 140 may retrieve, from the memory unit 120, a specific grasp shape corresponding to the information received about the location and pressure of contacts. For example, control unit 140 may determine that a user's left hand grabs apparatus 100 if two contact detection signals are received. from the left side of the sensor and four contact detection signals from the right side of the sensor, as shown in Figure 12A.

Entonces, la unidad 140 de control puede indicar a la unidad 132 de visualización que muestre una GUI en una ubicación específica en la unidad 132 de visualización dependiendo de la ubicación de contacto del usuario (S1140). Específicamente, la unidad 140 de control puede identificar primero la aplicación ejecutada actualmente (antes de mostrar una GUI), y luego puede seleccionar elementos de GUI que corresponden a la aplicación ejecutada actualmente. Por ejemplo, cuando se está ejecutando una aplicación de pantalla inactiva, la unidad 140 de control puede seleccionar iconos de menú como elementos de GUI para una pantalla inactiva. En otros casos, si se está ejecutando una aplicación de cámara, la unidad 140 de control puede seleccionar un icono para tomar una foto y una barra de desplazamiento para acercar/alejar para mostrar. Después de seleccionar elementos de GUI personalizados, la unidad 140 de control puede determinar un patrón de disposición de GUI en base a la aplicación ejecutada actualmente y la forma de asimiento del usuario. Por ejemplo, refiriéndose a la figura 12A y figura 12B, la unidad 140 de control puede reconocer una aplicación de pantalla inactiva como la aplicación ejecutada actualmente y también puede determinar que la mano izquierda del usuario está asiendo el aparato 100. La unidad 140 de control puede entonces determinar un patrón de disposición de GUI de tal manera que los iconos de menú se pueden disponer cerca de una ubicación de contacto de al menos uno de los cuatro dedos (excepto el pulgar) de la mano izquierda del usuario. Then, the control unit 140 may instruct the display unit 132 to display a GUI at a specific location on the display unit 132 depending on the contact location of the user (S1140). Specifically, the control unit 140 may first identify the currently running application (before displaying a GUI), and then it may select GUI items that correspond to the currently running application. For example, when an idle screen application is running, the control unit 140 may select menu icons as GUI items for an idle screen. In other cases, if a camera application is running, the control unit 140 may select an icon to take a photo and a scroll bar to zoom in / out to display. After selecting custom GUI items, the control unit 140 may determine a GUI layout pattern based on the currently running application and the user's grasp. For example, referring to FIG. 12A and FIG. 12B, the control unit 140 may recognize an idle screen application as the currently running application and may also determine that the user's left hand is grasping the apparatus 100. The control unit 140 You can then determine a GUI layout pattern such that the menu icons can be arranged near a contact location of at least one of the four fingers (except the thumb) of the user's left hand.

Después de determinar un patrón de disposición de GUI, la unidad 140 de control puede indicar a la unidad 132 de visualización que muestre elementos de GUI en base al patrón de disposición de GUI. Es decir, los elementos de GUI previamente seleccionados pueden mostrarse en la unidad 132 de visualización de acuerdo con el patrón de disposición de GUI.After determining a GUI layout pattern, the control unit 140 may instruct the display unit 132 to display GUI items based on the GUI layout pattern. That is, the previously selected GUI elements can be displayed on the display unit 132 in accordance with the GUI layout pattern.

La figura 12A y figura 12B ilustran dos ejemplos de una pantalla en la cual se muestran iconos de menú en una aplicación de pantalla inactiva de acuerdo con realizaciones ejemplares de la presente invención. Como se muestra en la figura 12a y figura 12B, se pueden disponer tres iconos de menú en posiciones en una dirección a lo ancho desde tres ubicaciones de contacto de dedos. La unidad 120 de memoria puede almacenar clasificaciones de qué tan frecuentemente se usan se usan los menús e iconos de menú. La unidad 140 de control puede disponer iconos de menú en orden de la frecuencia de uso. Por ejemplo, cuando un usuario ase el aparato 100 durante la ejecución de una aplicación de pantalla inactiva, la unidad 140 de control puede recuperar las clasificaciones de frecuencia de uso menús desde la unidad 120 de memoria y puede indicar a la unidad 132 de visualización que muestre iconos de menú de acuerdo con clasificaciones recuperadas. La visualización de iconos en la unidad 132 de visualización puede cambiarse de acuerdo con la preferencia del usuario.FIG. 12A and FIG. 12B illustrate two examples of a screen in which menu icons are displayed in an idle screen application in accordance with exemplary embodiments of the present invention. As shown in Fig. 12a and Fig. 12B, three menu icons can be arranged at positions in one direction across from three finger contact locations. The memory unit 120 can store ratings of how frequently the menus and menu icons are used. Control unit 140 may arrange menu icons in order of frequency of use. For example, when a user grabs the apparatus 100 during the execution of an idle screen application, the control unit 140 may retrieve the frequency-of-use ratings menus from the memory unit 120 and may instruct the display unit 132 to display menu icons according to retrieved ratings. The icon display on the display unit 132 can be changed according to the user's preference.

La unidad 140 de control también puede cambiar la ubicación de los elementos de GUI de acuerdo con la presión del contacto del usuario. Refiriéndose a la figura 12A y figura 12B, cuando el usuario aumenta la presión (por ejemplo, la presión aumenta más allá de un umbral de presión predeterminado) de contactos mientras que ase el aparato 100, los iconos de menú mostrados en la unidad 132 de visualización pueden moverse hacia el lado derecho de la pantalla, a saber, hacia los dedos presionados. Adicionalmente, la unidad 140 de control puede ejecutar una aplicación específica cuando el icono correspondiente alcanza el lado derecho de la unidad 132 de visualización. En algunos casos, la unidad 140 de control puede decidir si ejecutar aplicaciones en base a la presión de contacto de los dedos del usuario y/o cuando los iconos alcanzan el lado derecho de la unidad 132 de visualización.The control unit 140 can also change the location of the GUI elements in accordance with the user's contact pressure. Referring to FIG. 12A and FIG. 12B, when the user increases the pressure (eg, the pressure increases beyond a predetermined pressure threshold) of contacts while gripping the apparatus 100, the menu icons displayed on the unit 132 of display can be moved to the right side of the screen, namely to the pressed fingers. Additionally, the control unit 140 can execute a specific application when the corresponding icon reaches the right side of the display unit 132. In some cases, the control unit 140 may decide whether to execute applications based on the contact pressure of the user's fingers and / or when the icons reach the right side of the display unit 132.

La unidad 140 de control también puede cambiar el tamaño de visualización de elementos de GUI de acuerdo con la presión de un contacto del usuario. Por ejemplo, cuando el usuario aumenta la presión de contactos, los iconos de menú mostrados en la unidad 132 de visualización pueden ampliarse o reducirse en tamaño. Un aumento de presión de contacto puede resaltar los iconos de menú mostrados en la unidad 132 de visualización.The control unit 140 can also change the display size of GUI elements in accordance with the pressure of a user contact. For example, when the user increases the contact pressure, the menu icons displayed on the display unit 132 may be enlarged or reduced in size. An increase in contact pressure may highlight the menu icons displayed on the display unit 132.

La figura 13A y figura 13B ilustran dos ejemplos de una pantalla en la cual se muestran iconos de función en una aplicación de cámara de acuerdo con realizaciones ejemplares de la presente invención. Refiriéndose a la figura 13A y figura 13B, un usuario puede asir el aparato 100 con los pulgares e índices de ambas manos. Un icono para tomar una foto puede estar ubicado en una posición cercana al índice de la mano derecha, y una barra de desplazamiento para acercar/alejar puede estar ubicada en una posición en una dirección a lo largo desde el pulgar de la mano derecha. Si el usuario aumenta la presión de contacto mediante el índice derecho, un icono para tomar una foto se mueve hacia el índice derecho. Cuando este icono alcanza el lado superior de la unidad 132 de visualización, se puede ejecutar una función de tomar una foto. Además, el usuario puede aumentar la presión de contacto mediante el pulgar derecho para regular el acercamiento/alejamiento.Figure 13A and Figure 13B illustrate two examples of a screen on which function icons are displayed in a camera application in accordance with exemplary embodiments of the present invention. Referring to Figure 13A and Figure 13B, a user can grasp the apparatus 100 with the thumbs and forefingers of both hands. An icon for taking a photo can be located at a position near the index of the right hand, and a scroll bar for zooming in / out can be located at a position in a direction along from the thumb of the right hand. If the user increases the contact pressure using the right index, an icon for taking a photo moves to the right index. When this icon reaches the upper side of the display unit 132, a function of taking a photo can be executed. In addition, the user can increase the contact pressure by using the right thumb to regulate the zoom in / out.

La figura 14A y la figura 14B ilustra dos ejemplos de una pantalla en la cual se muestran iconos de función en una aplicación de MP3. Refiriéndose a la figura 14A y figura 14B, un usuario puede asir el aparato 100 con la mano izquierda. Los iconos de función pueden mostrarse dependiendo de las ubicaciones de contacto de los dedos de la mano izquierda excepto el pulgar, mientras que una barra de control de volumen puede mostrarse dependiendo de la ubicación de contacto del pulgar. Los iconos de función mostrados pueden seguir un patrón de disposición de GUI predefinido. Mientras que ase el aparato 100, el usuario puede regular la ejecución de una aplicación de MP3 aumentando una presión de contacto o realizando una acción tal como golpeteo. Por ejemplo, la ubicación, tamaño, y/o efecto de expresión de los iconos pueden variar de acuerdo con el contacto del usuario. Figure 14A and Figure 14B illustrate two examples of a screen in which function icons are displayed in an MP3 application. Referring to Fig. 14A and Fig. 14B, a user can grasp the apparatus 100 with the left hand. Function icons may be displayed depending on the contact locations of the left hand fingers other than the thumb, while a volume control bar may be displayed depending on the contact location of the thumb. The function icons displayed can follow a predefined GUI layout pattern. While gripping the apparatus 100, the user can regulate the execution of an MP3 application by increasing a contact pressure or by performing an action such as tapping. For example, the location, size, and / or expression effect of the icons may vary according to the user's contact.

Volviendo a la figura 11, después de mostrar una GUI, la unidad 140 de control puede determinar si la ubicación de contacto del usuario ha cambiado (S1150). Específicamente, cuando un usuario cambia una forma de asimiento mientras que ase el aparato 100, la unidad 110 de sensor táctil puede detectar un cambio en el contacto del usuario y puede generar una nueva señal de detección de contacto. La unidad 140 de control puede entonces recibir la nueva señal de detección de contacto desde la unidad 110 de sensor táctil, puede determinar el patrón de contacto del usuario de nuevo, y puede modificar la visualización de una GUI dependiendo del nuevo patrón de contacto.Returning to Fig. 11, after displaying a GUI, the control unit 140 can determine whether the contact location of the user has changed (S1150). Specifically, when a user changes a grip shape while gripping the apparatus 100, the touch sensor unit 110 can detect a change in the user's contact and can generate a new contact detection signal. The control unit 140 can then receive the new contact detection signal from the touch sensor unit 110, can determine the user's contact pattern again, and can modify the display of a GUI depending on the new contact pattern.

Refiriéndose a la figura 12A y figura 12B, el contacto del usuario en la figura 12B puede ser diferente al contacto del usuario en la figura 12A. Por ejemplo, la ubicación de los dedos puede haberse movido hacia abajo en la figura 12B. La unidad 140 de control puede recibir una nueva señal de detección de contacto desde la unidad 110 de sensor táctil y puede determinar un nuevo patrón de contacto en base a nueva información sobre la ubicación y presión de contactos. La unidad 140 de control puede entonces indicar a la visualización de una GUI que cambie de acuerdo con el nuevo patrón de contacto.Referring to Figure 12A and Figure 12B, the user contact in Figure 12B may be different from the user contact in Figure 12A. For example, the location of the fingers may have moved downward in Figure 12B. Control unit 140 may receive a new contact detection signal from touch sensor unit 110 and may determine a new contact pattern based on new information on contact location and pressure. The control unit 140 may then instruct a GUI display to change in accordance with the new contact pattern.

Comparando la figura 13A y figura 13B, el índice derecho del usuario puede haberse movido (por ejemplo, hacia la izquierda) en la figura 13B, en comparación con la figura 13A. La unidad 140 de control puede recibir una nueva señal de detección de contacto, determinar un nuevo patrón de contacto, y mover el icono de foto hacia un contacto actual de índice, como se muestra en la figura 13B.Comparing Figure 13A and Figure 13B, the user's right index may have moved (eg, to the left) in Figure 13B, compared to Figure 13A. Control unit 140 can receive a new contact detection signal, determine a new contact pattern, and move the photo icon to a current index contact, as shown in FIG. 13B.

Refiriéndose a la figura 14A y figura 14B, el número de contactos así como la ubicación de contactos pueden cambiar. Por ejemplo, cuatro contactos en el lado derecho en la figura 14A pueden moverse hacia abajo y pueden reducirse a tres contactos en la figura 14B. Además, un contacto en el lado izquierdo puede moverse hacia abajo. Una barra de control de volumen también puede moverse hacia abajo a lo largo del lado izquierdo. Adicionalmente, un icono de retroceso, un icono de reproducción/pausa, y un icono de detención pueden moverse hacia abajo a lo largo del lado derecho, mientras que un icono de avance que corresponde a un dedo (por ejemplo, dedo más pequeño) de la mano izquierda se puede retirar de la unidad 132 de visualización.Referring to Figure 14A and Figure 14B, the number of contacts as well as the location of the contacts may change. For example, four contacts on the right side in Figure 14A can move downward and can be reduced to three contacts in Figure 14B. Also, a contact on the left side can move down. A volume control bar can also be moved down along the left side. Additionally, a back icon, a play / pause icon, and a stop icon can move down along the right side, while a forward icon that corresponds to a finger (for example, smallest finger) of the left hand can be removed from the display unit 132.

Como se indicó anteriormente, realizaciones ejemplares de la presente invención divulgan un procedimiento y aparato para mostrar y modificar una GUI dependiendo de la ubicación y presión de unos contactos del usuario. Por consiguiente, realizaciones ejemplares de la presente invención pueden evitar la confusión cuando un usuario manipula un aparato.As indicated above, exemplary embodiments of the present invention disclose a method and apparatus for displaying and modifying a GUI depending on the location and pressure of a user's contacts. Accordingly, exemplary embodiments of the present invention can avoid confusion when a user manipulates an apparatus.

Será evidente para los expertos en la técnica que se pueden realizar diversas modificaciones y variaciones en la presente invención sin apartarse del alcance de la invención definida en las reivindicaciones adjuntas. It will be apparent to those skilled in the art that various modifications and variations can be made to the present invention without departing from the scope of the invention defined in the appended claims.

Claims (14)

REIVINDICACIONES 1. Un procedimiento para mostrar una interfaz gráfica de usuario, GUI, en una pantalla (130) de toque que comprende una unidad (132) de visualización en un aparato (100) que comprende además una unidad (110) de sensor táctil diferente de una unidad (134) de sensor de toque incluida en la pantalla (130) de toque, estando la unidad de sensor táctil ubicada en un lado lateral del aparato (100), comprendiendo el procedimiento:A method of displaying a graphical user interface, GUI, on a touch screen (130) comprising a display unit (132) in an apparatus (100) further comprising a different touch sensor unit (110) of a touch sensor unit (134) included in the touch screen (130), the touch sensor unit being located on a lateral side of the apparatus (100), comprising the procedure: detectar (S210) un contacto de la unidad (110) de sensor táctil;detecting (S210) a contact of the touch sensor unit (110); determinar (S220) un patrón de contacto del contacto detectado;determining (S220) a contact pattern of the detected contact; mostrar (S240) la GUI en base al patrón de contacto; ydisplaying (S240) the GUI based on the contact pattern; and caracterizado por detectar, después de mostrar (S240) la GUI en base al patrón de contacto, un aumento de presión de contacto de la unidad (110) de sensor táctil, y cambiar una ubicación o tamaño de visualización de los elementos de GUI de acuerdo con la presión del contacto detectado y ejecutar una aplicación específica cuando la presión aumenta más allá de un umbral predeterminado. characterized by detecting, after displaying (S240) the GUI based on the contact pattern, an increase in contact pressure of the touch sensor unit (110), and changing a location or display size of the GUI elements according to with the detected contact pressure and run a specific application when the pressure rises beyond a predetermined threshold. 2. El procedimiento de la reivindicación 1, que comprende además determinar (S230) una mano manipuladora en base al patrón de contacto.The method of claim 1, further comprising determining (S230) a manipulative hand based on the contact pattern. 3. El procedimiento de la reivindicación 2, en el que determinar (S220) un patrón de contacto comprende:The method of claim 2, wherein determining (S220) a contact pattern comprises: generar (S310) uno o más grupos de componentes que comprenden un conjunto de componentes de sensor que detectan el contacto y están dispuestos en una o más secuencias, el conjunto de componentes de sensor está situado en al menos una parte de sensor de la unidad (110) de sensor táctil;generating (S310) one or more groups of components comprising a set of sensor components that detect contact and are arranged in one or more sequences, the set of sensor components is located in at least one sensor part of the unit ( 110) of touch sensor; crear (S320) información de patrón de contacto en base al uno o más grupos de componentes;creating (S320) contact pattern information based on the one or more component groups; comparar (S340) la información de patrón de contacto creada con información de patrón de contacto almacenada; ycomparing (S340) the created contact pattern information with stored contact pattern information; and determinar (S350) la mano manipuladora que corresponde a la información de patrón de contacto creada si la información de patrón de contacto creada está dentro de un intervalo (S350) asociado con la información de patrón de contacto almacenada.determining (S350) the manipulator hand that corresponds to the created contact pattern information if the created contact pattern information is within a range (S350) associated with the stored contact pattern information. 4. El procedimiento de la reivindicación 3, en el que la información de patrón de contacto comprende un número del uno o más grupos de componentes en cada parte de sensor, una ubicación del uno o más grupos de componentes, un intervalo entre el uno o más grupos de componentes, un número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.The method of claim 3, wherein the contact pattern information comprises a number of the one or more groups of components in each sensor part, a location of the one or more groups of components, an interval between the one or more more component groups, a number of sensor components in each component group, and / or pressure sensing data for each sensor component. 5. El procedimiento de la reivindicación 2, en el que determinar (S220) el patrón de contacto comprende:The method of claim 2, wherein determining (S220) the contact pattern comprises: generar (S410) uno o más grupos de componentes que comprenden un conjunto de componentes de sensor que detectan el contacto y están dispuestos en una o más secuencias, el conjunto de componentes de sensor está situado en al menos una parte de sensor de la unidad (110) de sensor táctil;generating (S410) one or more groups of components comprising a set of sensor components that detect contact and are arranged in one or more sequences, the set of sensor components is located in at least one sensor part of the unit ( 110) of touch sensor; determinar (S430) una parte de sensor que tiene un grupo de componentes más grande que comprende un mayor número de componentes de sensor;determining (S430) a sensor part having a larger group of components comprising a larger number of sensor components; determinar (S440, S460) si el grupo de componentes más grande tiene grupos de componentes adicionales; ydetermining (S440, S460) if the largest component group has additional component groups; and determinar (S450, S470), si no existen grupos de componentes adicionales, que la mano manipuladora es una mano izquierda de un usuario cuando el mayor grupo de componentes pertenece a una parte izquierda del sensor de la unidad (110) de sensor táctil, o que la mano manipuladora es una mano derecha del usuario cuando el mayor grupo de componentes pertenece a una parte derecha del sensor de la unidad (110) de sensor táctil.determine (S450, S470), if there are no additional component groups, that the manipulator hand is a left hand of a user when the largest component group belongs to a left part of the sensor of the touch sensor unit (110), or that the manipulator hand is a right hand of the user when the largest group of components belongs to a right part of the sensor of the touch sensor unit (110). 6. El procedimiento de la reivindicación 2, en el que determinar (S220) el patrón de contacto comprende:6. The method of claim 2, wherein determining (S220) the contact pattern comprises: generar (S510) uno o más grupos de componentes que comprenden un conjunto de componentes de sensor que detectan el contacto y están dispuestos en una o más secuencias, el conjunto de componentes de sensor está situado en al menos una parte de sensor de la unidad (110) de sensor táctil;generating (S510) one or more groups of components comprising a set of sensor components that detect contact and are arranged in one or more sequences, the set of sensor components is located in at least one sensor part of the unit ( 110) of touch sensor; calcular (S520) un número de grupos de componentes contenidos en cada parte de sensor;calculating (S520) a number of component groups contained in each sensor part; determinar (S540) que una mano derecha del usuario es la mano manipuladora cuando el número de grupos de componentes es tres o más en una parte izquierda del sensor de la unidad de sensor táctil y es uno o menos en una parte derecha del sensor de la unidad de sensor táctil (S530); y determine (S540) that a right hand of the user is the manipulator hand when the number of component groups is three or more in a left part of the sensor of the touch sensor unit and is one or less in a right part of the sensor of the touch sensor unit. touch sensor unit (S530); and determinar (S560) que una mano izquierda del usuario es la mano manipuladora cuando el número de grupos de componentes es tres o más en la parte derecha del sensor y es uno o menos en la parte izquierda del sensor (S550).determining (S560) that a user's left hand is the manipulating hand when the number of component groups is three or more on the right side of the sensor and one or less on the left side of the sensor (S550). 7. El procedimiento de la reivindicación 2, en el que mostrar (S240) la GUI comprende:The method of claim 2, wherein displaying (S240) the GUI comprises: disponer iconos de menú en la unidad (132) de visualización que corresponden a una trayectoria de movimiento de un pulgar izquierdo de un usuario cuando la mano manipuladora es una mano izquierda del usuario; yproviding menu icons on the display unit (132) that correspond to a movement path of a left thumb of a user when the manipulator hand is a left hand of the user; and disponer los iconos de menú en la unidad (132) de visualización que corresponde a una trayectoria de movimiento de un pulgar derecho del usuario cuando la mano manipuladora es la mano derecha del usuario.arranging the menu icons on the display unit 132 that corresponds to a movement path of a user's right thumb when the manipulator hand is the user's right hand. 8. El procedimiento de la reivindicación 2, en el que mostrar (S240) la GUI comprende:The method of claim 2, wherein displaying (S240) the GUI comprises: disponer una barra de desplazamiento a lo largo de una porción izquierda de la unidad (132) de visualización cuando la mano manipuladora es una mano izquierda de un usuario; ydisposing a scroll bar along a left portion of the display unit (132) when the manipulator hand is a left hand of a user; and disponer la barra de desplazamiento a lo largo de una porción derecha de la unidad (132) de visualización cuando la mano manipuladora es una mano derecha del usuario.arranging the scroll bar along a right portion of the display unit (132) when the manipulator hand is a right hand of the user. 9. El procedimiento de la reivindicación 1, en el que determinar (S220) el patrón de contacto comprende determinar una forma de asimiento de un usuario en base a una ubicación del contacto detectado.The method of claim 1, wherein determining (S220) the contact pattern comprises determining a form of grasp of a user based on a location of the detected contact. 10. El procedimiento de la reivindicación 9, en el que determinar (S220) el patrón de contacto comprende además determinar si una presión del contacto es mayor que un valor umbral.The method of claim 9, wherein determining (S220) the contact pattern further comprises determining whether a contact pressure is greater than a threshold value. 11. El procedimiento de la reivindicación 9, que comprende además:The method of claim 9, further comprising: determinar un patrón de disposición de GUI de acuerdo con una aplicación ejecutada actualmente y la forma de asimiento del usuario.determine a GUI layout pattern according to a currently running application and the user's grasp form. 12. El procedimiento de la reivindicación 1, en el que mostrar (S240) la GUI comprende mostrar la GUI en una posición en la unidad (132) de visualización en base a una ubicación del contacto detectado.The method of claim 1, wherein displaying (S240) the GUI comprises displaying the GUI at a position on the display unit (132) based on a location of the detected contact. 13. Un aparato (100) para mostrar una interfaz gráfica de usuario, GUI, comprendiendo el aparato (100):13. A widget (100) for displaying a graphical user interface, GUI, the widget (100) comprising: una pantalla (130) de toque que comprende una unidad (132) de visualización configurada para mostrar (S240) la GUI, y una unidad (134) de sensor de toque;a touch screen (130) comprising a display unit (132) configured to display (S240) the GUI, and a touch sensor unit (134); una unidad (110) de sensor táctil, diferente a la unidad (134) de sensor de toque, ubicada en un lado lateral del aparato (100) y configurada para generar (S210) una señal de detección de contacto en respuesta a la detección de un contacto, comprendiendo la unidad (110) de sensor táctil una pluralidad de partes de sensor que comprenden una parte izquierda del sensor y una parte derecha del sensor, teniendo cada parte de sensor una pluralidad de componentes de sensor; ya touch sensor unit (110), other than touch sensor unit (134), located on a side side of apparatus (100) and configured to generate (S210) a contact detection signal in response to detection of a contact, the touch sensor unit (110) comprising a plurality of sensor parts comprising a left sensor part and a right sensor part, each sensor part having a plurality of sensor components; and caracterizado porque una unidad (140) de control está configurada para recibir la señal de detección de contacto desde la unidad (110) de sensor táctil, para determinar (S220) un patrón de contacto en base a la señal de detección de contacto, para indicar a la unidad (132) de visualización que muestre (240) la GUI en base al patrón de contacto, para detectar, después de mostrar (S240) la GUI en base al patrón de contacto, un aumento en la presión de contacto de la unidad (110) de sensor táctil, y para cambiar una ubicación o tamaño de visualización de los elementos de GUI de acuerdo con la presión del contacto detectado y para ejecutar una aplicación específica cuando la presión aumenta más allá de un umbral predeterminado. characterized in that a control unit (140) is configured to receive the contact detection signal from the touch sensor unit (110), to determine (S220) a contact pattern based on the contact detection signal, to indicate to the display unit 132 showing (240) the GUI based on the contact pattern, to detect, after displaying (S240) the GUI based on the contact pattern, an increase in the contact pressure of the unit (110) touch sensor, and to change a location or display size of the GUI elements in accordance with the detected contact pressure and to execute a specific application when the pressure increases beyond a predetermined threshold. 14. El aparato de la reivindicación 13, en el que la unidad (140) de control está configurada además para generar (S310) uno o más grupos de componentes que comprenden un conjunto de componentes de sensor que detectan el contacto y que están dispuestos en una o más secuencias, para crear (S320) información de patrón de contacto que corresponde al patrón de contacto en base al uno o más grupos de componentes, para comparar (S340) la información de patrón de contacto creada con información de patrón de contacto almacenada, y para determinar (S360) una mano manipuladora en base a la información de patrón de contacto creada si la información de patrón de contacto creada está dentro de un intervalo (S350) asociado con la información de patrón de contacto almacenada. The apparatus of claim 13, wherein the control unit (140) is further configured to generate (S310) one or more groups of components that comprise a set of contact-sensing sensor components that are arranged in one or more sequences, to create (S320) contact pattern information corresponding to the contact pattern based on the one or more component groups, to compare (S340) the created contact pattern information with stored contact pattern information , and to determine (S360) a manipulative hand based on the created contact pattern information whether the created contact pattern information is within a range (S350) associated with the stored contact pattern information.
ES09167533T 2008-10-06 2009-08-10 Procedure and apparatus to display graphical user interface depending on a contact pattern of the user Active ES2776103T3 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080097591 2008-10-06
KR1020090012687A KR20100039194A (en) 2008-10-06 2009-02-17 Method for displaying graphic user interface according to user's touch pattern and apparatus having the same

Publications (1)

Publication Number Publication Date
ES2776103T3 true ES2776103T3 (en) 2020-07-29

Family

ID=42215793

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09167533T Active ES2776103T3 (en) 2008-10-06 2009-08-10 Procedure and apparatus to display graphical user interface depending on a contact pattern of the user

Country Status (3)

Country Link
KR (1) KR20100039194A (en)
CN (3) CN106909304B (en)
ES (1) ES2776103T3 (en)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012019350A1 (en) * 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen
CN102375652A (en) * 2010-08-16 2012-03-14 中国移动通信集团公司 Mobile terminal user interface regulation system and method
CN102402275B (en) * 2010-09-13 2017-05-24 联想(北京)有限公司 Portable electronic equipment and holding gesture detection method
WO2012049942A1 (en) * 2010-10-13 2012-04-19 Necカシオモバイルコミュニケーションズ株式会社 Mobile terminal device and display method for touch panel in mobile terminal device
CN102479035A (en) * 2010-11-23 2012-05-30 汉王科技股份有限公司 Electronic device with touch screen, and method for displaying left or right hand control interface
JP2012168932A (en) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc Input device, information processing device and input value acquisition method
CN102131003A (en) * 2011-04-06 2011-07-20 罗蒙明 Method for judging finger key pressing on virtual keyboard of mobile phone with touch screen
CN102790816A (en) * 2011-05-16 2012-11-21 中兴通讯股份有限公司 Processing method and device of pushbutton function
CN102810039A (en) * 2011-05-31 2012-12-05 中兴通讯股份有限公司 Left or right hand adapting virtual keyboard display method and terminal
CN102841723B (en) * 2011-06-20 2016-08-10 联想(北京)有限公司 Portable terminal and display changeover method thereof
JP5453351B2 (en) * 2011-06-24 2014-03-26 株式会社Nttドコモ Mobile information terminal, operation state determination method, program
JP5588931B2 (en) * 2011-06-29 2014-09-10 株式会社Nttドコモ Mobile information terminal, arrangement area acquisition method, program
CN102299996A (en) * 2011-08-19 2011-12-28 华为终端有限公司 Handheld device operating mode distinguishing method and handheld device
JP5911961B2 (en) * 2011-09-30 2016-04-27 インテル コーポレイション Mobile devices that eliminate unintentional touch sensor contact
KR101908947B1 (en) 2011-11-23 2018-10-17 삼성전자주식회사 Method and apparatus for peripheral connection
KR101866272B1 (en) * 2011-12-15 2018-06-12 삼성전자주식회사 Apparatas and method of user based using for grip sensor in a portable terminal
CN102722247A (en) * 2012-03-09 2012-10-10 张伟明 Operation and control component, information processing system using same and information processing method thereof
CN103324423B (en) * 2012-03-21 2018-11-13 北京三星通信技术研究有限公司 A kind of terminal and its method for displaying user interface
KR101979666B1 (en) 2012-05-15 2019-05-17 삼성전자 주식회사 Operation Method For plural Touch Panel And Portable Device supporting the same
CN102662603A (en) * 2012-05-18 2012-09-12 广州市渡明信息技术有限公司 Input method display method and input method display system for mobile phone with touch screen
KR101995486B1 (en) * 2012-06-26 2019-07-02 엘지전자 주식회사 Mobile terminal and control method thereof
CN102890558B (en) * 2012-10-26 2015-08-19 北京金和软件股份有限公司 The method of mobile hand-held device handheld motion state is detected based on sensor
CN103809866B (en) * 2012-11-13 2018-07-06 联想(北京)有限公司 A kind of operation mode switching method and electronic equipment
CN103118166B (en) * 2012-11-27 2014-11-12 广东欧珀移动通信有限公司 Method of realizing single hand operation of mobile phone based on pressure sensing
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
CN103870140B (en) * 2012-12-13 2018-01-23 联想(北京)有限公司 A kind of object processing method and device
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
CN103576850A (en) * 2012-12-26 2014-02-12 深圳市创荣发电子有限公司 Method and system for judging holding mode of handheld device
CN103902141A (en) * 2012-12-27 2014-07-02 北京富纳特创新科技有限公司 Device and method for achieving dynamic arrangement of desktop functional icons
US20140184519A1 (en) * 2012-12-28 2014-07-03 Hayat Benchenaa Adapting user interface based on handedness of use of mobile computing device
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
US9904394B2 (en) 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
JP5995171B2 (en) * 2013-03-13 2016-09-21 シャープ株式会社 Electronic device, information processing method, and information processing program
CN104360813B (en) * 2013-04-12 2016-03-30 努比亚技术有限公司 A kind of display device and information processing method thereof
CN104216602B (en) * 2013-05-31 2017-10-20 国际商业机器公司 A kind of method and system for control slide block
KR102139110B1 (en) * 2013-06-20 2020-07-30 삼성전자주식회사 Electronic device and method for controlling using grip sensing in the electronic device
KR102138505B1 (en) * 2013-07-10 2020-07-28 엘지전자 주식회사 Mobile terminal and method for controlling the same
US9134818B2 (en) * 2013-07-12 2015-09-15 Facebook, Inc. Isolating mobile device electrode
US10162416B2 (en) * 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
CN104714731B (en) * 2013-12-12 2019-10-11 南京中兴软件有限责任公司 The display methods and device of terminal interface
US20150192989A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method of controlling electronic device
CN103795949A (en) * 2014-01-14 2014-05-14 四川长虹电器股份有限公司 Control terminal, device terminal and system for adjusting volume of device terminal
KR102155091B1 (en) * 2014-01-22 2020-09-11 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN104850339B (en) * 2014-02-19 2018-06-01 联想(北京)有限公司 A kind of information processing method and electronic equipment
CN104915073B (en) * 2014-03-14 2018-06-01 敦泰科技有限公司 Hand-held type touch device
US9239648B2 (en) * 2014-03-17 2016-01-19 Google Inc. Determining user handedness and orientation using a touchscreen device
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
JP6482578B2 (en) 2014-06-24 2019-03-13 アップル インコーポレイテッドApple Inc. Column interface for navigating in the user interface
CN117573019A (en) * 2014-06-24 2024-02-20 苹果公司 Input device and user interface interactions
CN105468269A (en) * 2014-08-15 2016-04-06 深圳市中兴微电子技术有限公司 Mobile terminal capable of automatically identifying holding by left hand or right hand, and implementation method thereof
CN105468245B (en) * 2014-08-22 2020-05-01 中兴通讯股份有限公司 Terminal and display method of terminal operation interface
KR102291565B1 (en) 2014-12-03 2021-08-19 삼성디스플레이 주식회사 Display device and drving method for display devece using the same
CN104461322A (en) * 2014-12-30 2015-03-25 中科创达软件股份有限公司 Display method and system for user interface of handheld device
CN104615368A (en) * 2015-01-21 2015-05-13 上海华豚科技有限公司 Following switching method of keyboard interface
CN104571919A (en) * 2015-01-26 2015-04-29 深圳市中兴移动通信有限公司 Terminal screen display method and device
CN104679427B (en) * 2015-01-29 2017-03-15 努比亚技术有限公司 Terminal split-screen display method and system
KR101686629B1 (en) * 2015-01-30 2016-12-14 한국과학기술연구원 Method for determining location in virtual space indicated by users input regarding information on pressure and apparatus and computer-readable recording medium using the same
CN105988692A (en) * 2015-02-02 2016-10-05 中兴通讯股份有限公司 Handheld electronic equipment, and method and device for controlling handheld electronic equipment
KR102358110B1 (en) 2015-03-05 2022-02-07 삼성디스플레이 주식회사 Display apparatus
CN104731501B (en) * 2015-03-25 2016-03-23 努比亚技术有限公司 Control chart calibration method and mobile terminal
CN104735256B (en) * 2015-03-27 2016-05-18 努比亚技术有限公司 Holding mode determination methods and the device of mobile terminal
CN104834463A (en) * 2015-03-31 2015-08-12 努比亚技术有限公司 Holding recognition method and device of mobile terminal
KR102384284B1 (en) * 2015-04-01 2022-04-08 삼성전자주식회사 Apparatus and method for controlling volume using touch screen
CN104765541A (en) * 2015-04-10 2015-07-08 南京理工大学 Method and system for identifying whether left hand or right hand operates mobile phone
CN104898959B (en) * 2015-04-30 2018-06-05 努比亚技术有限公司 A kind of method and apparatus for adjusting virtual push button position
CN104866136B (en) * 2015-05-11 2019-02-15 努比亚技术有限公司 A kind of method and device of determining terminal operating mode
KR102422181B1 (en) * 2015-06-02 2022-07-18 삼성전자주식회사 Method for controling a display of an electronic device and the electronic device thereof
CN104915143B (en) * 2015-06-19 2019-01-22 努比亚技术有限公司 The control method and terminal of Rimless mobile terminal
US10157410B2 (en) * 2015-07-14 2018-12-18 Ebay Inc. Enhanced shopping actions on a mobile device
CN105227768A (en) * 2015-09-18 2016-01-06 努比亚技术有限公司 A kind of application APP display system and method
CN105183235B (en) * 2015-10-19 2018-02-06 上海斐讯数据通信技术有限公司 A kind of method of touch-control platen edge false-touch prevention
CN105224181B (en) * 2015-10-20 2018-05-25 魅族科技(中国)有限公司 A kind of sidebar display methods and device
CN106610746A (en) * 2015-10-26 2017-05-03 青岛海信移动通信技术股份有限公司 Mobile terminal and control method thereof
CN105573622A (en) * 2015-12-15 2016-05-11 广东欧珀移动通信有限公司 Single-hand control method and device of user interface and terminal device
KR101876020B1 (en) * 2016-05-10 2018-07-06 홍익대학교세종캠퍼스산학협력단 Cursor Scrolling Control Method Using A 3D Touch Of A Mobile Device
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
CN106406656B (en) * 2016-08-30 2019-07-26 维沃移动通信有限公司 A kind of control method and mobile terminal of application tool bar
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
KR102659062B1 (en) * 2016-11-29 2024-04-19 삼성전자주식회사 Device for displaying user interface based on sensing signal of grip sensor
CN106648329A (en) * 2016-12-30 2017-05-10 维沃移动通信有限公司 Application icon display method and mobile terminal
US10635255B2 (en) 2017-04-18 2020-04-28 Google Llc Electronic device response to force-sensitive interface
CN109710099A (en) * 2017-10-26 2019-05-03 南昌欧菲生物识别技术有限公司 Electronic device
WO2019113895A1 (en) * 2017-12-14 2019-06-20 深圳市柔宇科技有限公司 Control method and electronic device
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. Setup procedures for an electronic device
US10838541B2 (en) * 2018-09-03 2020-11-17 Htc Corporation Method for operating handheld device, handheld device and computer-readable recording medium thereof
KR102539579B1 (en) 2018-12-18 2023-06-05 삼성전자주식회사 Electronic device for adaptively changing display area of information and operation method thereof
CN113906419A (en) 2019-03-24 2022-01-07 苹果公司 User interface for media browsing application
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US20200301567A1 (en) 2019-03-24 2020-09-24 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US11445263B2 (en) 2019-03-24 2022-09-13 Apple Inc. User interfaces including selectable representations of content items
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
EP3977245A1 (en) 2019-05-31 2022-04-06 Apple Inc. User interfaces for a podcast browsing and playback application
CN112486346B (en) * 2019-09-12 2023-05-30 北京小米移动软件有限公司 Key mode setting method, device and storage medium
JP7279622B2 (en) * 2019-11-22 2023-05-23 トヨタ自動車株式会社 display device and display program
US20230142200A1 (en) * 2020-02-10 2023-05-11 Nec Corporation Non-transitory storage medium, processing method for portable terminal, and portable terminal
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
CN112543362A (en) * 2020-11-02 2021-03-23 当趣网络科技(杭州)有限公司 Display interface switching method, remote controller, television system and electronic equipment
KR20220064162A (en) * 2020-11-11 2022-05-18 삼성전자주식회사 An electronic device including a stretchable display
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
CN113867594A (en) * 2021-10-21 2021-12-31 元心信息科技集团有限公司 Information input panel switching method and device, electronic equipment and storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
CN1241109C (en) * 2001-07-17 2006-02-08 仁宝电脑工业股份有限公司 Touch display able to control amplificatino rabio by pressure
US7009599B2 (en) * 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
US20030117376A1 (en) * 2001-12-21 2003-06-26 Elen Ghulam Hand gesturing input device
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US7116314B2 (en) * 2003-05-06 2006-10-03 International Business Machines Corporation Method for distribution wear for a touch entry display
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
DE602004013116T2 (en) * 2004-01-20 2009-07-02 Sony Deutschland Gmbh Haptic key-controlled data entry
KR100608576B1 (en) * 2004-11-19 2006-08-03 삼성전자주식회사 Apparatus and method for controlling a potable electronic device
CN101133385B (en) * 2005-03-04 2014-05-07 苹果公司 Hand held electronic device, hand held device and operation method thereof
CN1901785B (en) * 2005-07-22 2012-08-29 鸿富锦精密工业(深圳)有限公司 Display device and its display control method
CN100592247C (en) * 2005-09-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 Multi-gradation menu displaying device and display control method
CN1940834B (en) * 2005-09-30 2014-10-29 鸿富锦精密工业(深圳)有限公司 Circular menu display device and its display controlling method
JP4699955B2 (en) * 2006-07-21 2011-06-15 シャープ株式会社 Information processing device
KR101144423B1 (en) * 2006-11-16 2012-05-10 엘지전자 주식회사 Mobile phone and display method of the same
JP2008204402A (en) * 2007-02-22 2008-09-04 Eastman Kodak Co User interface device

Also Published As

Publication number Publication date
CN106909305A (en) 2017-06-30
KR20100039194A (en) 2010-04-15
CN101714055A (en) 2010-05-26
CN106909304A (en) 2017-06-30
CN106909304B (en) 2020-08-14
CN106909305B (en) 2020-10-27

Similar Documents

Publication Publication Date Title
ES2776103T3 (en) Procedure and apparatus to display graphical user interface depending on a contact pattern of the user
EP2175344B1 (en) Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP5983503B2 (en) Information processing apparatus and program
US9285950B2 (en) Hover-over gesturing on mobile devices
JP5507494B2 (en) Portable electronic device with touch screen and control method
US7856605B2 (en) Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
JP5529700B2 (en) Information processing apparatus, control method thereof, and program
EP2431853A2 (en) Character input device
CN110874117B (en) Method for operating handheld device, and computer-readable recording medium
TWI659353B (en) Electronic apparatus and method for operating thereof
CN103995668A (en) Information processing method and electronic device
US20130321322A1 (en) Mobile terminal and method of controlling the same
JP5507646B2 (en) Operation key group layout method and operation key group layout device in portable terminal device
KR20110066025A (en) Operation method of touch pannel and touch pannel driving chip
US20170075453A1 (en) Terminal and terminal control method
KR102026882B1 (en) Method and apparatus for distinguishing five fingers in electronic device including touch screen
KR20100002758A (en) Method of detecting effective touch of key in portable terminal and portable terminal performing the same
KR101678213B1 (en) An apparatus for user interface by detecting increase or decrease of touch area and method thereof
JP2011227913A (en) Control method of device with touch panel and device with touch panel
JP5855481B2 (en) Information processing apparatus, control method thereof, and control program thereof
KR20120094728A (en) Method for providing user interface and mobile terminal using the same
JP2014207000A (en) Portable electronic apparatus and control program of portable electronic apparatus
JP5819276B2 (en) Portable electronic device and control program for portable electronic device
KR20120095130A (en) Operation method of personal portable device having touch panel
JP2012080568A (en) Portable terminal device and layout method of operation key group in the portable terminal device