ES2776103T3 - Procedure and apparatus to display graphical user interface depending on a contact pattern of the user - Google Patents
Procedure and apparatus to display graphical user interface depending on a contact pattern of the user Download PDFInfo
- Publication number
- ES2776103T3 ES2776103T3 ES09167533T ES09167533T ES2776103T3 ES 2776103 T3 ES2776103 T3 ES 2776103T3 ES 09167533 T ES09167533 T ES 09167533T ES 09167533 T ES09167533 T ES 09167533T ES 2776103 T3 ES2776103 T3 ES 2776103T3
- Authority
- ES
- Spain
- Prior art keywords
- sensor
- contact
- user
- unit
- contact pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
- G06F3/04142—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Un procedimiento para mostrar una interfaz gráfica de usuario, GUI, en una pantalla (130) de toque que comprende una unidad (132) de visualización en un aparato (100) que comprende además una unidad (110) de sensor táctil diferente de una unidad (134) de sensor de toque incluida en la pantalla (130) de toque, estando la unidad de sensor táctil ubicada en un lado lateral del aparato (100), comprendiendo el procedimiento: detectar (S210) un contacto de la unidad (110) de sensor táctil; determinar (S220) un patrón de contacto del contacto detectado; mostrar (S240) la GUI en base al patrón de contacto; y caracterizado por detectar, después de mostrar (S240) la GUI en base al patrón de contacto, un aumento de presión de contacto de la unidad (110) de sensor táctil, y cambiar una ubicación o tamaño de visualización de los elementos de GUI de acuerdo con la presión del contacto detectado y ejecutar una aplicación específica cuando la presión aumenta más allá de un umbral predeterminado.A method of displaying a graphical user interface, GUI, on a touch screen (130) comprising a display unit (132) in an apparatus (100) further comprising a touch sensor unit (110) other than a unit (134) of the touch sensor included in the touch screen (130), the touch sensor unit being located on one side of the apparatus (100), the procedure comprising: detecting (S210) a contact of the unit (110) touch sensor; determining (S220) a contact pattern of the detected contact; displaying (S240) the GUI based on the contact pattern; and characterized by detecting, after displaying (S240) the GUI based on the contact pattern, an increase in contact pressure of the touch sensor unit (110), and changing a display location or size of the GUI elements of the according to the pressure of the detected contact and execute a specific application when the pressure rises beyond a predetermined threshold.
Description
DESCRIPCIÓNDESCRIPTION
Procedimiento y aparato para mostrar interfaz gráfica de usuario dependiendo de un patrón de contacto del usuario Procedure and apparatus for displaying graphical user interface depending on a user contact pattern
Antecedentes de la invenciónBackground of the invention
Campo de la invenciónField of the invention
Realizaciones ejemplares de la presente invención se refieren a una interfaz gráfica de usuario (GUI) para dispositivos electrónicos y, en particular, a un procedimiento y aparato para mostrar una GUI de acuerdo con un patrón de contacto del usuario.Exemplary embodiments of the present invention relate to a graphical user interface (GUI) for electronic devices and, in particular, to a method and apparatus for displaying a GUI according to a user contact pattern.
Descripción de los antecedentesBackground description
Se puede usar una pantalla de toque como unidad de visualización y una unidad de entrada. Por lo tanto, los dispositivos electrónicos que tienen una pantalla de toque pueden no requerir unidades de visualización y entrada adicionales. Debido a esta ventaja, una pantalla de toque puede usarse ampliamente para dispositivos electrónicos de tamaño limitado tales como, por ejemplo, dispositivos móviles, los cuales también pueden denominarse como dispositivos portátiles o dispositivos de mano.A touch screen can be used as a display unit and an input unit. Therefore, electronic devices that have a touch screen may not require additional display and input units. Due to this advantage, a touch screen can be widely used for electronic devices of limited size such as, for example, mobile devices, which can also be referred to as portable devices or handheld devices.
Típicamente, un usuario puede manipular una pantalla de toque con una mano o ambas manos para ordenar una ejecución de una función o aplicación deseada. Cuando un usuario usa ambas manos, una mano puede asir un dispositivo, y la otra mano puede tocar una pantalla de toque del dispositivo. Sin embargo, cuando un usuario usa solo una mano, partes de la pantalla de toque a menudo pueden estar ocultas por un dedo (por ejemplo, el pulgar) de una mano que está asiendo.Typically, a user can manipulate a touch screen with one hand or both hands to command a desired function or application execution. When a user uses both hands, one hand can grasp a device, and the other hand can touch a device's touch screen. However, when a user uses only one hand, parts of the touch screen can often be hidden by a finger (for example, the thumb) of a hand that they are grasping.
La figura 10A es un ejemplo ilustrativo que muestra un pulgar izquierdo del usuario seleccionando uno de los iconos de menú que se muestran en una pantalla de toque. En este ejemplo, si un usuario toca un icono específico (por ejemplo, Icono de Música) ubicado en la porción superior derecha en la pantalla de toque, algunos de los otros iconos (por ejemplo, Icono de Juego, Icono de Visualización, e Icono de Programador) que se muestran en la pantalla de toque pueden estar totalmente o de manera parcial ocultos por el pulgar. Adicionalmente, estos iconos ocultos pueden estar en contacto con el pulgar, y de esa manera las funciones asociadas con los iconos ocultos pueden ejecutarse de manera indeseable.Figure 10A is an illustrative example showing a user's left thumb selecting one of the menu icons displayed on a touch screen. In this example, if a user touches a specific icon (for example, Music Icon) located in the upper right portion of the touch screen, some of the other icons (for example, Game Icon, Display Icon, and Icon Programmer) displayed on the touch screen may be partially or totally hidden by the thumb. Additionally, these hidden icons can be in contact with the thumb, and thus the functions associated with the hidden icons can be performed in an undesirable manner.
La figura 10B es otro ejemplo ilustrativo que muestra un pulgar izquierdo del usuario tocando una barra de desplazamiento presentada en la pantalla de toque. Si el usuario toca la barra de desplazamiento ubicada en el lado derecho de la pantalla de toque, el contenido mostrado (por ejemplo, escena) puede estar oculto por el pulgar. Adicionalmente, algo del contenido mostrado puede ser tocado de manera indeseable con el pulgar y acceder a él. FIG. 10B is another illustrative example showing a user's left thumb touching a scroll bar displayed on the touch screen. If the user touches the scroll bar located on the right side of the touch screen, the displayed content (eg scene) may be hidden by the thumb. Additionally, some of the displayed content can be undesirably touched with the thumb and accessed.
Un dispositivo electrónico que tenga sensores táctiles puede proporcionar control de aplicaciones de dispositivo electrónico solo si un usuario mantiene contacto con una parte específica del dispositivo sin usar una pantalla de toque o un teclado. Tales dispositivos electrónicos pueden proporcionar una pantalla de visualización con una GUI para guiar las entradas basadas en contactos. Si la GUI se muestra en una forma fija independientemente de un patrón de contacto del usuario, algunas posiciones en la GUI pueden fallar al anotar/ingresar el contacto del usuario. Esto puede deberse a diferencias en los tamaños de manos individuales, tamaños de dedos, y formas de asimiento. Es difícil realizar una GUI adaptada para múltiples usuarios. Si no existe una coincidencia entre una posición en la GUI y un punto de contacto del contacto del usuario, se puede generar confusión cuando un usuario manipula aplicaciones en el dispositivo electrónico.An electronic device that has touch sensors can provide electronic device application control only if a user maintains contact with a specific part of the device without using a touch screen or keyboard. Such electronic devices can provide a display screen with a GUI to guide contact-based entries. If the GUI is displayed in a fixed form regardless of a user contact pattern, some positions in the GUI may fail to note / enter the user contact. This may be due to differences in individual hand sizes, finger sizes, and grip shapes. It is difficult to make a GUI adapted for multiple users. If there is no match between a position in the GUI and a point of contact of the user's contact, confusion can result when a user manipulates applications on the electronic device.
El documento US-2006/0111093-A1 divulga un aparato y procedimiento para controlar un terminal portátil. El aparato incluye una unidad de percepción de contacto que percibe un área de la superficie externa del terminal portátil contactado por un usuario cuando el usuario sostiene el terminal portátil. Una unidad de reconocimiento reconoce un modo de función del terminal portátil en base a información sobre el área contactada percibida por la unidad de percepción de contacto. Una unidad de control cambia un terminal portátil a un modo de función reconocido por la unidad de reconocimiento.Document US-2006/0111093-A1 discloses an apparatus and method for controlling a portable terminal. The apparatus includes a contact sensing unit that senses an area of the outer surface of the portable terminal contacted by a user when the user holds the portable terminal. A recognition unit recognizes a function mode of the portable terminal based on information about the contacted area perceived by the contact sensing unit. A control unit switches a portable terminal to a function mode recognized by the recognition unit.
El documento JP-2008-027183-A divulga un procesador de información dispuesto para mostrar una interfaz que sea adecuada para un operador sin entrada específica requerida del operador. El procesador de información incluye una caja plana que está dimensionada para sujetarse con una mano y tiene una forma aproximadamente rectangular. Un dispositivo de visualización tiene una cara de visualización provista en la superficie principal de la caja plana. Los sensores de presión similares a lámina están dispuestos en la primera y segunda caras laterales de la caja plana para detectar una distribución de áreas de contacto entre la primera y segunda caras laterales y la mano humana. Una parte de control controla el contenido mostrado en la cara de visualización por el dispositivo de visualización sobre la base de las salidas de los sensores sensibles a la presión.JP-2008-027183-A discloses an information processor arranged to display an interface that is suitable for an operator with no specific input required from the operator. The information processor includes a flat case that is dimensioned to be held in one hand and is approximately rectangular in shape. A display device has a display face provided on the main surface of the flat box. Sheet-like pressure sensors are arranged on the first and second side faces of the flat box to detect a distribution of contact areas between the first and second side faces and the human hand. A control part controls the content displayed on the display face by the display device based on the outputs of the pressure sensitive sensors.
El documento US-2006/0197750-A1 divulga un dispositivo electrónico de mano con múltiples dispositivos de percepción de toque. Los dispositivos de percepción de toque pueden, por ejemplo, seleccionarse de paneles de toque, pantallas de toque o carcasas sensibles al toque. US-2006/0197750-A1 discloses a handheld electronic device with multiple touch sensing devices. Touch sensing devices can, for example, be selected from touch panels, touch screens or touch sensitive housings.
Sumario de la invenciónSummary of the invention
Realizaciones ejemplares de la presente invención proporcionan un procedimiento y aparato para mostrar una interfaz gráfica de usuario (GUI) adaptada a una mano manipuladora del usuario.Exemplary embodiments of the present invention provide a method and apparatus for displaying a graphical user interface (GUI) adapted to a user's manipulative hand.
Las características adicionales de la invención se describirán en la descripción que sigue, y en parte serán evidentes a partir de la descripción, o pueden aprenderse mediante la práctica de la invención.Additional features of the invention will be described in the description that follows, and in part will be apparent from the description, or may be learned by practice of the invention.
De acuerdo con un primer aspecto de la presente invención se proporciona un procedimiento de acuerdo con la reivindicación 1.According to a first aspect of the present invention there is provided a method according to claim 1.
De acuerdo con un segundo aspecto de la presente invención se proporciona un aparato de acuerdo con la reivindicación 13.According to a second aspect of the present invention there is provided an apparatus according to claim 13.
Debe entenderse que tanto la descripción general anterior como la siguiente descripción detallada son ejemplares y explicativas y están previstas para proporcionar una explicación adicional de la invención reivindicada.It is to be understood that both the above general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the claimed invention.
Breve descripción de los dibujosBrief description of the drawings
Los dibujos adjuntos, que se incluyen para proporcionar un entendimiento adicional de la invención y se incorporan en, y constituyen, una parte de esta memoria descriptiva, ilustran realizaciones ejemplares de la invención, y junto con la descripción sirven para explicar los principios de la invención.The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this specification, illustrate exemplary embodiments of the invention, and together with the description serve to explain the principles of the invention .
La figura 1A es un diagrama de bloques que ilustra una configuración interna de un aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 1A is a block diagram illustrating an internal configuration of an apparatus in accordance with exemplary embodiments of the present invention.
La figura 1B muestra un ejemplo de una unidad de sensor táctil ubicada en los lados laterales del aparato que se muestra en la figura 1A de acuerdo con realizaciones ejemplares de la presente invención.Figure 1B shows an example of a touch sensor unit located on the lateral sides of the apparatus shown in Figure 1A in accordance with exemplary embodiments of the present invention.
La figura 2 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI que depende de una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención.FIG. 2 is a flow chart illustrating a method for displaying a GUI dependent on a manipulator hand in accordance with exemplary embodiments of the present invention.
La figura 3 es un diagrama de flujo que ilustra un ejemplo de un proceso detallado de la etapa de determinación de mano manipuladora en el procedimiento de visualización de GUI que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.Fig. 3 is a flow chart illustrating an example of a detailed process of the manipulative hand determination step in the GUI display procedure shown in Fig. 2 according to exemplary embodiments of the present invention.
La figura 4 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de la etapa de determinación de mano manipuladora en el procedimiento de visualización de GUI que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 4 is a flow chart illustrating another example of a detailed process of the manipulative hand determination step in the GUI display procedure shown in FIG. 2 according to exemplary embodiments of the present invention.
La figura 5 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de la etapa de determinación de mano manipuladora en el procedimiento de visualización de GUI que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 5 is a flow chart illustrating another example of a detailed process of the manipulative hand determination step in the GUI display procedure shown in FIG. 2 according to exemplary embodiments of the present invention.
La figura 6A muestra un ejemplo de un asimiento de mano izquierda y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 6A shows an example of a left hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.
La figura 6B muestra un ejemplo de un asimiento de mano derecha y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 6B shows an example of a right hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.
La figura 7A muestra otro ejemplo de un asimiento de mano izquierda y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 7A shows another example of a left hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.
La figura 7B muestra otro ejemplo de un asimiento de mano derecha y la unidad de sensor táctil ubicada en un lado lateral del aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 7B shows another example of a right hand grip and touch sensor unit located on a lateral side of the apparatus in accordance with exemplary embodiments of the present invention.
La figura 8 ilustra un ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención. La figura 9 ilustra otro ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención. La figura 10A es un ejemplo ilustrativo que muestra un pulgar izquierdo del usuario seleccionando uno de los iconos de menú mostrados en una pantalla de toque de acuerdo con una GUI convencional.Figure 8 illustrates an example of a GUI in accordance with exemplary embodiments of the present invention. Figure 9 illustrates another example of a GUI in accordance with exemplary embodiments of the present invention. Fig. 10A is an illustrative example showing a user's left thumb selecting one of the menu icons displayed on a touch screen in accordance with a conventional GUI.
La figura 10B es otro ejemplo ilustrativo que muestra un pulgar izquierdo del usuario tocando una barra de desplazamiento presentada en una pantalla de toque de acuerdo con una GUI convencional.Fig. 10B is another illustrative example showing a user's left thumb touching a scroll bar displayed on a touch screen in accordance with a conventional GUI.
La figura 11 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI que depende de una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención. FIG. 11 is a flow chart illustrating a method of displaying a GUI dependent on a manipulator hand in accordance with exemplary embodiments of the present invention.
La figura 12A ilustra un ejemplo de una pantalla en la cual los iconos de menú son mostrados en una aplicación de pantalla inactiva mediante un contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.FIG. 12A illustrates an example of a screen in which menu icons are displayed in an idle screen application by a user contact in accordance with exemplary embodiments of the present invention.
La figura 12B ilustra un ejemplo de una pantalla en la cual los iconos de menú mostrados son cambiados en una aplicación de pantalla inactiva mediante un nuevo contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.FIG. 12B illustrates an example of a screen in which displayed menu icons are changed in an idle screen application by a new user contact in accordance with exemplary embodiments of the present invention.
La figura 13A ilustra un ejemplo de una pantalla en la cual los iconos de función son mostrados en una aplicación de cámara mediante un contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.Figure 13A illustrates an example of a screen in which function icons are displayed in a camera application by a user contact in accordance with exemplary embodiments of the present invention.
La figura 13B ilustra un ejemplo de una pantalla en la cual los iconos de función mostrados son cambiados en una aplicación de cámara mediante un nuevo contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.Figure 13B illustrates an example of a screen in which the displayed function icons are changed in a camera application by a new user contact in accordance with exemplary embodiments of the present invention.
La figura 14A ilustra un ejemplo de una pantalla en la cual los iconos de función son mostrados en una aplicación de MP3 mediante un contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.FIG. 14A illustrates an example of a screen in which function icons are displayed in an MP3 application by a user contact in accordance with exemplary embodiments of the present invention.
La figura 14B ilustra un ejemplo de una pantalla en la cual los iconos de función mostrados son cambiados en una aplicación de MP3 mediante un nuevo contacto del usuario de acuerdo con realizaciones ejemplares de la presente invención.Figure 14B illustrates an example of a screen in which displayed function icons are changed in an MP3 application by a new user contact in accordance with exemplary embodiments of the present invention.
Descripción detallada de las realizaciones ilustradasDetailed description of the illustrated embodiments
La invención se describe más completamente de aquí en adelante con referencia a los dibujos adjuntos, en los cuales se muestran realizaciones ejemplares de la invención. Sin embargo, la presente invención puede realizarse de muchas formas diferentes y no debe interpretarse como limitada a las realizaciones ejemplares descritas en la presente memoria. Más bien, estas realizaciones ejemplares se proporcionan de tal manera que esta divulgación sea exhaustiva, y transmitirá completamente el alcance de la invención a los expertos en la técnica. En los dibujos, el tamaño y tamaños relativos de capas y regiones pueden ser exagerados para claridad. Los números de referencia similares en los dibujos denotan elementos similares.The invention is more fully described hereinafter with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. However, the present invention can be made in many different ways and should not be construed as being limited to the exemplary embodiments described herein. Rather, these exemplary embodiments are provided in such a way that this disclosure will be comprehensive, and will fully convey the scope of the invention to those skilled in the art. In the drawings, the size and relative sizes of layers and regions may be exaggerated for clarity. Like reference numerals in the drawings denote like elements.
Se entenderá que, aunque los términos primero, segundo, tercero, etc. pueden usarse en la presente memoria para describir diversos elementos, componentes, regiones, capas y/o secciones, estos elementos, componentes, regiones, capas y/o secciones no deben estar limitados por estos términos. Estos términos solo se usan para distinguir un elemento, componente, región, capa o sección de otra región, capa o sección. De este modo, un primer elemento, componente, región, capa o sección discutido a continuación podría denominarse un segundo elemento, componente, región, capa o sección sin apartarse de las enseñanzas de la presente invención.It will be understood that, although the terms first, second, third, etc. may be used herein to describe various elements, components, regions, layers and / or sections, these elements, components, regions, layers and / or sections should not be limited by these terms. These terms are only used to distinguish one element, component, region, layer, or section from another region, layer, or section. Thus, a first element, component, region, layer or section discussed below could be referred to as a second element, component, region, layer or section without departing from the teachings of the present invention.
Los términos espacialmente relativos, tales como "debajo", "por debajo", "inferior", "por encima", "superior' y similares, se pueden usar en la presente memoria para facilidad de la descripción para describir la relación de un elemento o característica con otros elementos o características como se ilustra en las figuras. Se entenderá que los términos espacialmente relativos están previstos para abarcar diferentes orientaciones del dispositivo en uso u operación además de la orientación representada en las figuras. Por ejemplo, si el dispositivo en las figuras se da vuelta, los elementos descritos como "por debajo" o "debajo" de otros elementos o características entonces estarían orientados "por encima" de los otros elementos o características. De este modo, el término ejemplar "por debajo" puede abarcar tanto una orientación de por encima como por debajo. El dispositivo puede estar orientado de otro modo (girado 90° o en otras orientaciones) y los descriptores espacialmente relativos usados en la presente memoria pueden interpretarse en consecuencia.Spatially relative terms, such as 'below', 'below', 'lower', 'above', 'upper', and the like, may be used herein for ease of description to describe the relationship of an element. or feature with other elements or features as illustrated in the figures. It will be understood that the spatially relative terms are intended to encompass different orientations of the device in use or operation in addition to the orientation depicted in the figures. For example, if the device in the As figures are turned over, items described as "below" or "below" other items or features would then be oriented "above" the other items or features. Thus, the exemplary term "below" can encompass both an overhead orientation as well as underneath. The device can be oriented differently (rotated 90 ° or in other orientations) and the descriptors spatially relative u stes herein may be interpreted accordingly.
La terminología usada en la presente memoria es para el propósito de describir realizaciones ejemplares particulares solamente y no está prevista para ser limitante de la presente invención. Como se usa en la presente memoria, las formas singulares "un", "uno, una" y "el, la" están previstas para incluir también las formas plurales, a menos que el contexto indique claramente otra cosa. Se entenderá además que los términos "comprende" y/o "que comprende", cuando se usan en esta memoria descriptiva, especifican la presencia de características, enteros, etapas, operaciones, elementos, y/o componentes establecidos, pero no excluyen la presencia o adición de una u otras más características, enteros, etapas, operaciones, elementos, componentes, y/o grupos de los mismos.The terminology used herein is for the purpose of describing particular exemplary embodiments only and is not intended to be limiting of the present invention. As used herein, the singular forms "a", "an, an" and "the, the" are intended to include the plural forms as well, unless the context clearly indicates otherwise. It will be further understood that the terms "comprises" and / or "comprising", when used in this specification, specify the presence of established features, integers, steps, operations, elements, and / or components, but do not exclude the presence or addition of one or more other characteristics, integers, stages, operations, elements, components, and / or groups thereof.
A menos que se defina otra cosa, todos los términos (incluyendo los términos técnicos y científicos) usados en la presente memoria tienen el mismo significado como se entienden comúnmente por una persona de experiencia normal en la técnica a la cual pertenece la presente invención. Se entenderá además que los términos, tales como los definidos en los diccionarios usados comúnmente, deben interpretarse como que tienen un significado que es consecuente con su significado en el contexto de la técnica relevante y no se interpretarán en un sentido idealizado o demasiado formal a menos que así se defina expresamente en la presente memoria. Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. It will be further understood that terms, such as those defined in commonly used dictionaries, should be construed as having a meaning that is consistent with their meaning in the context of the relevant art and will not be interpreted in an idealized or overly formal sense unless as expressly defined herein.
Adicionalmente, las técnicas, elementos, estructuras, y procesos bien conocidos o ampliamente usados pueden no describirse o ilustrarse en detalle para evitar ocultar la esencia de las realizaciones ejemplares.Additionally, well-known or widely used techniques, elements, structures, and processes may not be described or illustrated in detail to avoid concealing the essence of the exemplary embodiments.
Antes de explicar realizaciones ejemplares de la presente invención, se definirá la terminología relevante para la descripción a continuación.Before explaining exemplary embodiments of the present invention, relevant terminology will be defined for the description below.
Una interfaz gráfica de usuario (GUI) puede referirse a una pantalla gráfica provista en una pantalla (por ejemplo, monitor) de un dispositivo electrónico. La GUI puede incluir al menos una ventana, al menos un icono, al menos una barra de desplazamiento, y cualquier otro ítem gráfico usado para ingresar comandos al dispositivo por un usuario. Debe entenderse que realizaciones ejemplares de la presente invención pueden incluir diversos tipos de GUIs en diversas formas, diseños, y configuraciones.A graphical user interface (GUI) can refer to a graphical display provided on a screen (eg, monitor) of an electronic device. The GUI can include at least one window, at least one icon, at least one scroll bar, and any other graphical items used to enter commands to the device by a user. It should be understood that exemplary embodiments of the present invention may include various types of GUIs in various shapes, designs, and configurations.
Una mano manipuladora puede referirse a una mano del usuario de dispositivo electrónico ocupada con la manipulación de la pantalla de toque del dispositivo electrónico. La mano manipuladora puede incluir una o más manos mediante las cuales se realiza una acción de toque en la pantalla de toque. Adicionalmente, la mano manipuladora puede incluir una o más manos en contacto con el dispositivo electrónico que tiene un sensor táctil. La mano manipuladora puede ser una mano izquierda, mano derecha, o ambas manos del usuario.A manipulative hand may refer to a hand of the electronic device user occupied with manipulating the touch screen of the electronic device. The manipulative hand may include one or more hands by which a touch action is performed on the touch screen. Additionally, the manipulative hand may include one or more hands in contact with the electronic device having a touch sensor. The manipulator hand can be a left hand, right hand, or both hands of the user.
Una unidad de sensor táctil o un sensor táctil puede referirse al menos a un sensor sensible a un toque del usuario. La unidad de sensor táctil puede ser diferente de los sensores de toque incluidos en la pantalla de toque y la unidad de sensor táctil puede estar ubicada en general en al menos un lado lateral del dispositivo. Si un usuario ase el dispositivo, la unidad de sensor táctil puede detectar el contacto entre una mano del usuario y el dispositivo, crear una señal de detección de contacto, y transmitir la señal de detección de contacto a una unidad de control. La unidad de sensor táctil puede estar compuesta por al menos un sensor táctil que puede detectar la extensión de una presión de contacto y la ubicación de contacto/presión. Alternativamente, la combinación de sensores de presión y sensores de toque puede usarse para la unidad de sensor táctil. La unidad de sensor táctil puede incluir una parte izquierda del sensor y una parte derecha del sensor, cada una de las cuales puede estar compuesta por una pluralidad de componentes de sensor. La unidad de sensor táctil se puede formar en el lado superior y/o el lado inferior, o se puede formar en cualquiera y/o todos los lados del dispositivo.A touch sensor unit or a touch sensor can refer to at least one sensor sensitive to a user's touch. The touch sensor unit can be different from the touch sensors included in the touch screen and the touch sensor unit can generally be located on at least one lateral side of the device. If a user grasps the device, the touch sensor unit can detect contact between a user's hand and the device, create a contact detection signal, and transmit the contact detection signal to a control unit. The touch sensor unit may be composed of at least one touch sensor that can detect the extent of a contact pressure and the location of contact / pressure. Alternatively, the combination of pressure sensors and touch sensors can be used for the touch sensor unit. The touch sensor unit may include a left sensor portion and a right sensor portion, each of which may be comprised of a plurality of sensor components. The touch sensor unit can be formed on the upper side and / or the lower side, or it can be formed on any and / or all sides of the device.
Los componentes de sensor pueden referirse a elementos que constituyen la unidad de sensor táctil. Cada componente de sensor puede detectar por separado un contacto del usuario. El número de componentes de sensor incluidos en la unidad de sensor táctil puede determinarse en base al tipo o tamaño de componentes de sensor. Sensor components can refer to elements that make up the touch sensor unit. Each sensor component can separately detect a user contact. The number of sensor components included in the touch sensor unit can be determined based on the type or size of sensor components.
Un grupo de componentes puede referirse a un conjunto de componentes de sensor dispuestos en secuencia entre los componentes de sensor de detección de contacto. El grupo de componentes puede usarse para crear información de patrón de contacto. La ubicación del grupo de componentes y el número de componentes de sensor incluidos en un único grupo de componentes pueden variar de acuerdo con la forma de asimiento del usuario.A group of components can refer to a set of sensor components arranged in sequence between the contact detection sensor components. The component group can be used to create contact pattern information. The location of the component group and the number of sensor components included in a single component group may vary according to the user's grasp.
De aquí en adelante, se describen en detalle realizaciones ejemplares de la presente invención con referencia a los dibujos adjuntos.Hereinafter, exemplary embodiments of the present invention are described in detail with reference to the accompanying drawings.
La figura 1A es un diagrama de bloques que ilustra una configuración interna de un aparato de acuerdo con realizaciones ejemplares de la presente invención.Figure 1A is a block diagram illustrating an internal configuration of an apparatus in accordance with exemplary embodiments of the present invention.
Refiriéndose a la figura 1A, el aparato 100 puede ser un terminal de comunicación móvil, un terminal portátil tal como un asistente digital personal (PDA), un ordenador, un TV, o cualquier otro dispositivo electrónico que tenga una pantalla de toque. El aparato 100 puede incluir una unidad 110 de sensor táctil, una unidad 120 de memoria, una pantalla 130 de toque, y una unidad 140 de control.Referring to FIG. 1A, apparatus 100 can be a mobile communication terminal, a portable terminal such as a personal digital assistant (PDA), a computer, a TV, or any other electronic device that has a touch screen. Apparatus 100 may include a touch sensor unit 110, a memory unit 120, a touch screen 130, and a control unit 140.
La unidad 110 de sensor táctil puede detectar el contacto de una mano del usuario cuando un usuario ase el aparato 100. La unidad 110 de sensor táctil puede detectar la extensión de la presión del contacto y una ubicación del contacto/presión. La unidad 110 de sensor táctil puede estar compuesta de sensores táctiles, sensores de toque, y/o una combinación de sensores de presión y sensores de toque. La unidad 110 de sensor táctil puede estar ubicada en un lado lateral del aparato 100, pero no limitada al mismo. En algunas realizaciones ejemplares, la unidad 110 de sensor táctil puede estar ubicada en cada lado del aparato 100.The touch sensor unit 110 can detect the contact of a user's hand when a user grasps the apparatus 100. The touch sensor unit 110 can detect the extent of contact pressure and a location of the contact / pressure. The touch sensor unit 110 can be comprised of touch sensors, touch sensors, and / or a combination of pressure sensors and touch sensors. The touch sensor unit 110 may be located on a lateral side of the apparatus 100, but is not limited thereto. In some exemplary embodiments, the touch sensor unit 110 may be located on each side of the apparatus 100.
La figura 1B muestra un ejemplo de la unidad 110 de sensor táctil ubicada en los lados laterales del aparato 100. Después de detectar el contacto de una mano del usuario, la unidad 110 de sensor táctil puede transmitir una señal de detección de contacto a la unidad 140 de control. La unidad 110 de sensor táctil puede incluir una parte izquierda del sensor y una parte derecha del sensor, cada una de las cuales puede estar compuesta por una pluralidad de componentes de sensor.Figure 1B shows an example of the touch sensor unit 110 located on the lateral sides of the apparatus 100. After detecting the contact of a user's hand, the touch sensor unit 110 can transmit a contact detection signal to the unit. 140 control. The touch sensor unit 110 may include a left sensor portion and a right sensor portion, each of which may be comprised of a plurality of sensor components.
La unidad 120 de memoria puede almacenar una variedad de programas necesarios para realizar funciones del aparato 100 y datos creados mientras se realizan tales funciones. La unidad 120 de memoria puede almacenar datos relacionados con un proceso de asumir una mano manipuladora y la información de patrón de contacto. The memory unit 120 can store a variety of programs necessary to perform functions of the apparatus 100 and data created while performing such functions. The memory unit 120 can store data related to a process of assuming a manipulative hand and the contact pattern information.
La pantalla 130 de toque puede mostrar información y puede recibir entrada de usuario. La pantalla 130 de toque puede incluir una unidad 132 de visualización y una unidad 134 de sensor de toque.The touch screen 130 can display information and can receive user input. The touch screen 130 may include a display unit 132 and a touch sensor unit 134.
La unidad 132 de visualización puede estar formada por una pantalla de cristal líquido (LCD) o cualquier otro tipo adecuado de pantalla. La unidad 132 de visualización puede proporcionar una variedad de información gráfica relacionada con los estados y operaciones del aparato 100. La unidad 132 de visualización puede mostrar una GUI dependiendo de una mano manipuladora. En algunos casos, la unidad 132 de visualización puede mostrar la GUI de acuerdo con la posición de los dedos del usuario que asen el aparato 100.The display unit 132 may be formed by a liquid crystal display (LCD) or any other suitable type of display. The display unit 132 can provide a variety of graphical information related to the states and operations of the apparatus 100. The display unit 132 can display a GUI depending on a manipulative hand. In some cases, the display unit 132 may display the GUI according to the position of the user's fingers grasping the apparatus 100.
La unidad 134 de sensor de toque puede determinar si las manos del usuario tocan la pantalla de toque o no. La unidad 134 de sensor de toque puede estar formada por sensores de toque capacitivos, sensores de presión, y/o cualquier otro sensor adecuado sensible al tacto. Cuando se detecta el toque de la mano del usuario, la unidad 134 de sensor de toque puede transmitir una señal de toque a la unidad 140 de control. La señal de toque puede incluir datos de coordenadas que representan la ubicación de toque del usuario. En algunos casos, la unidad 134 de sensor de toque puede no estar incluida en el aparato 100.The touch sensor unit 134 can determine whether the user's hands touch the touch screen or not. The touch sensor unit 134 may be comprised of capacitive touch sensors, pressure sensors, and / or any other suitable touch sensitive sensor. When the touch of the user's hand is detected, the touch sensor unit 134 may transmit a touch signal to the control unit 140. The touch signal may include coordinate data representing the user's touch location. In some cases, the touch sensor unit 134 may not be included in the apparatus 100.
La unidad 140 de control puede controlar estados y operaciones de uno o más elementos del aparato 100. Por ejemplo, la unidad 140 de control puede recibir una señal de detección de contacto desde la unidad 110 de sensor táctil y puede determinar el patrón de contacto del usuario usando la señal detección de contacto. Adicionalmente, la unidad 140 de control puede indicar a la unidad 132 de visualización que muestre una GUI dependiendo del patrón de contacto del usuario.Control unit 140 may monitor states and operations of one or more elements of apparatus 100. For example, control unit 140 may receive a contact detection signal from touch sensor unit 110 and may determine the contact pattern of the user using the contact detection signal. Additionally, the control unit 140 may instruct the display unit 132 to display a GUI depending on the user's contact pattern.
La figura 2 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI que depende de una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención.FIG. 2 is a flow chart illustrating a method for displaying a GUI dependent on a manipulator hand in accordance with exemplary embodiments of the present invention.
Refiriéndose a la figura 2, la unidad 110 de sensor táctil puede detectar un contacto del usuario (S210). El contacto del usuario puede ser un resultado del usuario al asir el aparato 100. Cuando se detecta el contacto del usuario, la unidad 110 de sensor táctil puede transmitir la señal de detección de contacto a la unidad 140 de control.Referring to FIG. 2, the touch sensor unit 110 can detect a user contact (S210). The user contact can be a result of the user grasping the apparatus 100. When the user contact is detected, the touch sensor unit 110 can transmit the contact detection signal to the control unit 140.
La unidad 140 de control puede recibir la señal de detección de contacto de la unidad 110 de sensor táctil (S220). A continuación, la unidad 140 de control puede determinar el patrón de contacto del usuario y de esa manera puede determinar una mano manipuladora (S230). La etapa S230 se ilustra en detalle en la figura 3, figura 4, y figura 5. The control unit 140 may receive the contact detection signal from the touch sensor unit 110 (S220). Then, the control unit 140 can determine the contact pattern of the user and thereby can determine a manipulative hand (S230). Step S230 is illustrated in detail in Figure 3, Figure 4, and Figure 5.
Después de la etapa S230, la unidad 140 de control puede indicar a la pantalla 130 de toque que muestre una GUI en base a la mano manipuladora (S240). La unidad 140 de control puede entonces decidir si recibe una señal de detección de contacto adicional de la unidad 110 de sensor táctil (S250). Si la unidad 140 de control decide recibir señales de detección de contacto adicionales, el procedimiento para mostrar una GUI puede volver a la etapa S230 para redeterminar el patrón de contacto del usuario y redeterminar además la mano manipuladora. La señal de detección de contacto adicional se puede proporcionar mediante la unidad 110 de sensor táctil cuando el usuario cambia una forma de asimiento.After step S230, the control unit 140 may instruct the touch screen 130 to display a GUI based on the manipulating hand (S240). The control unit 140 can then decide whether to receive a further contact detection signal from the touch sensor unit 110 (S250). If the control unit 140 decides to receive additional contact detection signals, the procedure for displaying a GUI may return to step S230 to redetermine the user's contact pattern and further redetermine the manipulator hand. The additional contact detection signal can be provided by the touch sensor unit 110 when the user changes a grip shape.
Si la unidad 140 de control no recibe señal de detección de contacto adicional de la unidad 110 de sensor táctil, la unidad 132 de visualización puede mantener una GUI actual. A partir de ahí, el usuario puede manipular la GUI mostrada en la pantalla 130 de toque para ingresar un comando al aparato 100.If the control unit 140 does not receive additional contact detection signal from the touch sensor unit 110, the display unit 132 can maintain a current GUI. From there, the user can manipulate the GUI displayed on the touch screen 130 to enter a command to the apparatus 100.
La figura 3 es un diagrama de flujo que ilustra un ejemplo de un proceso detallado de la etapa S230 que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 3 is a flowchart illustrating an example of a detailed process of step S230 shown in FIG. 2 according to exemplary embodiments of the present invention.
Refiriéndose a la figura 3, la unidad 140 de control puede generar al menos un grupo de componentes en base a la señal de detección de contacto recibida desde la unidad 110 de sensor táctil (S310). Como se indicó anteriormente, el grupo de componentes puede referirse a un conjunto de componentes de sensor dispuestos en una o más secuencias entre los componentes de sensor de detección de contacto.Referring to FIG. 3, the control unit 140 can generate at least one group of components based on the contact detection signal received from the touch sensor unit 110 (S310). As noted above, the component group can refer to a set of sensor components arranged in one or more sequences among the touch-sensing sensor components.
Realizaciones ejemplares de los componentes de sensor y el grupo de componentes se ilustran en la figura 6A, figura 6B, figura 7A, y figura 7B.Exemplary embodiments of the sensor components and the component group are illustrated in Figure 6A, Figure 6B, Figure 7A, and Figure 7B.
La figura 6A muestra un ejemplo de un usuario que sostiene el aparato 100 con un asimiento de mano izquierda. La unidad 110 de sensor táctil puede ubicarse en un lado lateral del aparato 100. La parte izquierda del sensor puede ubicarse en el lado lateral izquierdo del aparato 100, y la parte derecha del sensor puede ubicarse en el lado lateral derecho del aparato 100. Cada parte de sensor puede estar compuesta por una pluralidad de componentes de sensor. El número de componentes de sensor puede variar de acuerdo con un tamaño de los componentes de sensor. Por ejemplo, cuanto más pequeños son dimensionados los componentes de sensor, más componentes de sensor pueden estar dispuestos en los lados laterales del aparato 100. En la figura 6A, por ejemplo, el número de los componentes de sensor que pertenecen a cada parte de sensor puede ser veintitrés. Los componentes marcados entre los componentes de sensor en la parte izquierda del sensor pueden representar componentes que han detectado contacto con la mano izquierda. Entre los componentes de sensor en la parte derecha del sensor, los componentes marcados pueden representar componentes que han detectado contacto con los dedos de la mano izquierda (por ejemplo, cuatro dedos excepto el pulgar). Los componentes de detección de contacto pueden agruparse por sus disposiciones en secuencia. Por ejemplo, nueve componentes dispuestos secuencialmente en la parte izquierda del sensor pueden asignarse a un grupo. Y, cuatro pares de dos componentes en la parte derecha del sensor pueden asignarse a cuatro grupos.Figure 6A shows an example of a user holding the apparatus 100 with a left hand grip. The touch sensor unit 110 can be located on one side of the device 100. The left part of the sensor can be located on the left side of the device 100, and the right part of the sensor can be located on the right side of the device 100. Each sensor part may be composed of a plurality of sensor components. The number of sensor components may vary according to a size of the sensor components. For example, the smaller the sensor components are dimensioned, the more sensor components can be arranged on the lateral sides of the apparatus 100. In Figure 6A, for example, the number of the sensor components belonging to each sensor part it can be twenty-three. Components marked between sensor components on the left side of the sensor may represent components that have detected left hand contact. Among the sensor components on the right side of the sensor, the marked components may represent components that have detected contact with the fingers of the left hand (for example, four fingers except the thumb). Contact sensing components can be grouped by their arrangements into sequence. For example, nine components arranged sequentially on the left side of the sensor can be assigned to a group. And, four pairs of two components on the right side of the sensor can be assigned to four groups.
Volviendo a la figura 3, después de la etapa S310 de generar el grupo de componentes, la unidad 140 de control puede crear información de patrón de contacto en base al grupo de componentes (S320). Por lo tanto, la información de patrón de contacto puede ser diferente en base a cómo el usuario ase el aparato 100. La información de patrón de contacto puede incluir, por ejemplo, el número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.Returning to Fig. 3, after step S310 of generating the group of components, the control unit 140 can create contact pattern information based on the group of components (S320). Therefore, the contact pattern information may be different based on how the user grasps the apparatus 100. The contact pattern information may include, for example, the number of component groups in each sensor part, the location of component groups, the interval between component groups, the number of sensor components in each component group, and / or pressure sensing data for each sensor component.
Refiriéndose a la figura 6A, la información de patrón de contacto de la parte izquierda del sensor puede contener los siguientes datos: un grupo de componentes compuesto por nueve componentes de sensor ubicados, por ejemplo, desde el duodécimo componente de sensor hasta el vigésimo componente de sensor. La información de patrón de contacto de la parte derecha del sensor puede contener los siguientes datos: cuatro grupos de componentes, cada uno de los cuales está compuesto por dos componentes de sensor ubicados, por ejemplo, en la cuarta, quinta, novena, décima, decimocuarta, decimoquinta, decimonovena, y vigésima posiciones de componentes. Se pueden interponer tres componentes de sensor entre dos grupos de componentes adyacentes.Referring to Figure 6A, the contact pattern information on the left side of the sensor may contain the following data: a component group consisting of nine sensor components located, for example, from the twelfth sensor component to the twentieth component of sensor. The contact pattern information on the right side of the sensor can contain the following data: four groups of components, each of which is composed of two sensor components located, for example, in the fourth, fifth, ninth, tenth, fourteenth, fifteenth, nineteenth, and twentieth component positions. Three sensor components can be interposed between two groups of adjacent components.
Volviendo a la figura 3, la unidad 140 de control puede recuperar información de patrón de contacto almacenada de la unidad 120 de memoria (S330). La unidad 120 de memoria puede almacenar la información de patrón de contacto, y, en general, puede almacenar información de patrón de contacto diferente que corresponde a diferentes tipos de asimiento. La información de patrón de contacto almacenada en la unidad 120 de memoria puede incluir, por ejemplo, el número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.Returning to FIG. 3, the control unit 140 can retrieve stored contact pattern information from the memory unit 120 (S330). The memory unit 120 can store the contact pattern information, and, in general, can store different contact pattern information corresponding to different types of grasp. Contact pattern information stored in memory unit 120 may include, for example, the number of component groups in each sensor part, the location of component groups, the interval between component groups, the number of components. sensor data for each component group, and / or pressure sensing data for each sensor component.
La unidad 140 de control puede comparar subsecuentemente la información de patrón de contacto creada con la información de patrón de contacto recuperada (S340). Por ejemplo, la unidad 140 de control puede ejecutar comparaciones respectivas del número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos de detección de presión de cada componente de sensor.The control unit 140 can subsequently compare the created contact pattern information with the retrieved contact pattern information (S340). For example, the control unit 140 may perform respective comparisons of the number of component groups in each sensor part, the location of component groups, the interval between the component groups, the number of sensor components in each component group. , and / or pressure sensing data for each sensor component.
La unidad 140 de control también puede determinar si la información de patrón de contacto creada está dentro de un intervalo asociado con la información de patrón de contacto recuperada (S350). Cuando la información creada corresponde completamente a la información recuperada, la unidad 140 de control puede determinar que la información creada está dentro del intervalo asociado con la información recuperada. Si previamente se asigna un margen permisible a la información de patrón de contacto almacenada en la unidad 120 de memoria, la información creada puede estar dentro del margen permisible de tal manera que se pueda determinar que la información creada está dentro del intervalo. El margen permisible puede asignarse respectivamente a, por ejemplo, el número de grupos de componentes en cada parte de sensor, la ubicación de grupos de componentes, el intervalo entre los grupos de componentes, el número de componentes de sensor en cada grupo de componentes, y/o datos detección de presión de cada componente de sensor.The control unit 140 may also determine whether the created contact pattern information is within a range associated with the retrieved contact pattern information (S350). When the created information fully corresponds to the retrieved information, the control unit 140 may determine that the created information is within the range associated with the retrieved information. If an allowable range is previously assigned to the contact pattern information stored in the memory unit 120, the created information may be within the allowable range such that it can be determined that the created information is within the range. The allowable range can be respectively assigned to, for example, the number of component groups in each sensor part, the location of component groups, the interval between the component groups, the number of sensor components in each component group, and / or pressure sensing data for each sensor component.
Si la información de patrón de contacto creada está dentro del intervalo de la información de patrón de contacto recuperada, la unidad 140 de control puede determinar la mano manipuladora que corresponde a la información de patrón de contacto creada (S360). La unidad 120 de memoria puede ya tener información almacenada sobre diferentes manos manipuladoras de acuerdo con la información de patrón de contacto diferente. Si la información de patrón de contacto creada pertenece a un intervalo de la información de patrón de contacto recuperada, la unidad 140 de control puede determinar la mano manipuladora que corresponde a la información de patrón de contacto creada. La mano manipuladora determinada puede ser la mano izquierda, o la mano derecha.If the created contact pattern information is within the range of the retrieved contact pattern information, the control unit 140 can determine the manipulator hand that corresponds to the created contact pattern information (S360). The memory unit 120 may already have information stored on different manipulator hands according to the different contact pattern information. If the created contact pattern information belongs to a range of the retrieved contact pattern information, the control unit 140 can determine the manipulative hand that corresponds to the created contact pattern information. The determined manipulative hand can be the left hand, or the right hand.
Si la información de patrón de contacto creada no pertenece al intervalo de la información de patrón de contacto recuperada, la unidad 140 de control puede determinar que la mano manipuladora es ambas manos (S370). Después de determinar la mano manipuladora, la unidad 140 de control puede volver a la etapa previa S240 de mostrar una GUI de acuerdo con la mano manipuladora.If the created contact pattern information does not belong to the range of the retrieved contact pattern information, the control unit 140 may determine that the manipulator hand is both hands (S370). After determining the manipulating hand, the control unit 140 may return to the previous step S240 of displaying a GUI according to the manipulating hand.
La figura 4 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de la etapa S230 que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.Figure 4 is a flow chart illustrating another example of a detailed process of step S230 shown in Figure 2 in accordance with exemplary embodiments of the present invention.
Refiriéndose a la figura 4, la unidad 140 de control puede generar al menos un grupo de componentes que puede ser un conjunto de componentes de sensor dispuestos en secuencia entre componentes de sensor de detección de contacto (S410). La unidad 140 de control puede entonces calcular un número de componentes de sensor contenidos en cada grupo de componentes (S420). Por ejemplo, como se indica en el ejemplo mostrado en la figura 6A, un único grupo de componentes en la parte izquierda del sensor puede tener nueve componentes de sensor, y cada uno de los cuatro grupos de componentes en la parte derecha del sensor puede tener dos componentes de sensor. Referring to FIG. 4, the control unit 140 may generate at least one group of components which may be a set of sensor components arranged in sequence between contact detection sensor components (S410). The control unit 140 can then calculate a number of sensor components contained in each group of components (S420). For example, as indicated in the example shown in Figure 6A, a single group of components on the left side of the sensor can have nine sensor components, and each of the four groups of components on the right side of the sensor can have two sensor components.
Después de calcular el número de componentes de sensor en cada grupo de componentes, la unidad 140 de control puede determinar cual grupo de componentes y parte de sensor pueden tener el número más grande de componentes de sensor de detección de contacto (S430). Por ejemplo, el grupo de componentes más grande puede estar en la parte izquierda del sensor o la parte derecha del sensor, y por consiguiente la unidad 140 de control puede determinar si la parte de sensor más grande es la parte izquierda del sensor o la parte derecha del sensor en la etapa S430. Por ejemplo, refiriéndose a la figura 6A, la unidad 140 de control puede determinar que el grupo de componentes más grande tiene nueve componentes de sensor y está ubicado en la parte izquierda del sensor. Refiriéndose a otro ejemplo ilustrado en la figura 6B, el grupo de componentes más grande puede tener nueve componentes de sensor y puede estar ubicado en la parte derecha del sensor. Por lo tanto, la unidad 140 de control puede determinar que la parte de sensor más grande es la parte derecha del sensor. De manera similar, la parte de sensor más grande puede ser la parte izquierda del sensor en la figura 7A y la parte derecha del sensor en la figura 7B.After calculating the number of sensor components in each component group, the control unit 140 can determine which component group and sensor part may have the largest number of contact detection sensor components (S430). For example, the largest group of components may be on the left side of the sensor or the right side of the sensor, and therefore the control unit 140 can determine whether the larger sensor part is the left side of the sensor or the left side of the sensor. right of the sensor in step S430. For example, referring to FIG. 6A, the control unit 140 may determine that the largest group of components has nine sensor components and is located on the left side of the sensor. Referring to another example illustrated in Figure 6B, the largest component group may have nine sensor components and may be located on the right hand side of the sensor. Therefore, the control unit 140 can determine that the largest sensor part is the right part of the sensor. Similarly, the largest sensor part can be the left part of the sensor in Figure 7A and the right part of the sensor in Figure 7B.
Si la parte de sensor más grande es la parte izquierda del sensor, la unidad 140 de control puede determinar además si la parte izquierda del sensor tiene grupos de componentes adicionales (S440). Los grupos de componentes adicionales pueden referirse a uno o más grupos de componentes situados en la parte de sensor más grande pero ese no es el grupo de componentes más grande. En la figura 6A, por ejemplo, la parte izquierda del sensor, que es la parte de sensor más grande, puede tener el grupo de componentes más grande y ningún grupo de componentes adicional. Sin embargo, en la figura 7A, la parte izquierda del sensor, junto con el grupo de componentes más grande, puede tener un grupo de componentes adicional compuesto por tres componentes de sensor desde el tercer componente de sensor hasta el quinto componente de sensor.If the largest sensor part is the left part of the sensor, the control unit 140 can further determine whether the left part of the sensor has additional component groups (S440). Additional component groups can refer to one or more component groups located in the largest sensor part but that is not the largest component group. In Figure 6A, for example, the left part of the sensor, which is the largest sensor part, may have the largest group of components and no additional group of components. However, in Figure 7A, the left part of the sensor, along with the larger group of components, may have an additional group of components made up of three sensor components from the third sensor component to the fifth sensor component.
Si no hay un grupo de componentes adicional, como se muestra en la figura 6A, la unidad 140 de control puede determinar que la mano manipuladora es la mano izquierda (S450). Entonces se puede considerar que el grupo de componentes más grande está en contacto con la palma de la mano izquierda. También, no tener un grupo de componentes adicional puede indicar que el pulgar de la mano izquierda puede no estar en contacto con la unidad 110 de sensor táctil. En estos casos, la unidad 140 de control puede determinar que un usuario puede manipular la pantalla 130 de toque con el pulgar de la mano izquierda. Es decir, el usuario puede usar su mano izquierda para asir el aparato 100 y tocar la pantalla 130 de toque. La unidad 140 de control puede determinar que la mano manipuladora es la mano izquierda.If there is no additional component group, as shown in FIG. 6A, the control unit 140 can determine that the manipulator hand is the left hand (S450). The largest group of components can then be considered to be in contact with the palm of the left hand. Also, not having an additional set of components may indicate that the thumb of the left hand may not be in contact with the touch sensor unit 110. In these cases, the control unit 140 may determine that a user can manipulate the touch screen 130 with the thumb of the left hand. That is, the user can use his left hand to grasp the apparatus 100 and touch the touch screen 130. The control unit 140 can determine that the manipulator hand is the left hand.
Se pueden realizar etapas similares si se determina que la mano manipuladora es la mano derecha. Por ejemplo, si la parte de sensor más grande es la parte derecha del sensor, la unidad 140 de control puede determinar si la parte derecha del sensor tiene grupos de componentes adicionales (S460). Si la parte derecha del sensor no tiene un grupo de componentes adicional, como se muestra en la figura 6B, la unidad 140 de control puede determinar que la mano manipuladora es la mano derecha (S470).Similar steps can be performed if the manipulating hand is determined to be the right hand. For example, if the largest sensor part is the right part of the sensor, the control unit 140 can determine if the right part of the sensor has additional component groups (S460). If the right part of the sensor does not have an additional component group, as shown in FIG. 6B, the control unit 140 may determine that the manipulator hand is the right hand (S470).
Si la parte derecha del sensor tiene grupos de componentes adicionales, la unidad 140 de control puede determinar que ambas manos pueden ser la mano manipuladora (S480). La presencia de grupos de componentes adicionales puede indicar que el pulgar de la mano que está asiendo del usuario está en contacto con la unidad 110 de sensor táctil. La unidad 140 de control puede determinar que un usuario puede manipular la pantalla 130 de toque con el pulgar de una mano que no está asiendo. Por lo que, la unidad 140 de control determina que la mano manipuladora es ambas manos.If the right side of the sensor has additional component groups, the control unit 140 can determine that both hands can be the manipulator hand (S480). The presence of additional component groups may indicate that the thumb of the user's grasping hand is in contact with the touch sensor unit 110. The control unit 140 may determine that a user can manipulate the touch screen 130 with the thumb of a hand that is not grasping. Therefore, the control unit 140 determines that the manipulator hand is both hands.
La figura 5 es un diagrama de flujo que ilustra otro ejemplo de un proceso detallado de etapa S230 que se muestra en la figura 2 de acuerdo con realizaciones ejemplares de la presente invención.FIG. 5 is a flow chart illustrating another example of a detailed process from step S230 shown in FIG. 2 according to exemplary embodiments of the present invention.
Refiriéndose a la figura 5, la unidad 140 de control puede generar al menos un grupo de componentes que puede ser un conjunto de componentes de sensor dispuestos en secuencia entre componentes de sensor de detección de contacto (S510). La unidad 140 de control puede calcular el número de grupos de componentes contenidos en cada parte de sensor (S520). En la figura 6A, figura 6B, figura 7A, y figura 7B, las partes de sensor pueden ser la parte izquierda del sensor y la parte derecha del sensor. En algunos casos, la unidad 140 de control puede calcular simultáneamente el número de grupos de componentes en la parte izquierda del sensor y la parte derecha del sensor. Referring to FIG. 5, the control unit 140 may generate at least one group of components which may be a set of sensor components arranged in sequence between contact detection sensor components (S510). The control unit 140 can calculate the number of component groups contained in each sensor part (S520). In Fig. 6A, Fig. 6B, Fig. 7A, and Fig. 7B, the sensor parts can be the left part of the sensor and the right part of the sensor. In some cases, the control unit 140 can simultaneously calculate the number of component groups on the left side of the sensor and the right side of the sensor.
Por ejemplo, en la figura 6A, el número de grupos de componentes puede ser uno en la parte izquierda del sensor y cuatro en la parte derecha del sensor. En la figura 6B, el número de grupos de componentes puede ser cuatro en la parte izquierda del sensor y uno en la parte derecha del sensor. En la figura 7A, el número de grupos de componentes puede ser dos en la parte izquierda del sensor y cuatro en la parte derecha del sensor. En la figura 7B, el número de grupos de componentes puede ser cuatro en la parte izquierda del sensor y dos en la parte derecha del sensor. For example, in Figure 6A, the number of component groups can be one on the left side of the sensor and four on the right side of the sensor. In Figure 6B, the number of component groups can be four on the left side of the sensor and one on the right side of the sensor. In Figure 7A, the number of component groups can be two on the left side of the sensor and four on the right side of the sensor. In Figure 7B, the number of component groups can be four on the left side of the sensor and two on the right side of the sensor.
La unidad 140 de control puede determinar si el número de grupos de componentes es tres o más en la parte izquierda del sensor y uno o menos en la parte derecha del sensor (S530). Si el número de grupos de componentes es tres o más en la parte izquierda del sensor y uno o menos en la parte derecha del sensor, la unidad 140 de control puede determinar que la mano manipuladora es la mano derecha del usuario (S540). Tres o más grupos de componentes en la parte izquierda del sensor pueden indicar que al menos tres dedos, excepto el pulgar, están en contacto con la parte izquierda del sensor. Un grupo de componentes o menos en la parte derecha del sensor puede indicar que la palma de la mano derecha del usuario está en contacto con la parte derecha del sensor pero el pulgar puede no estar en contacto. En tales casos, la unidad 140 de control puede determinar que el usuario puede manipular la pantalla de toque con el pulgar de la mano derecha del usuario. Es decir, una mano derecha del usuario puede usarse para asir el aparato 100 y tocar la pantalla 130 de toque. Por consiguiente, la unidad 140 de control puede determinar que la mano manipuladora es la mano derecha.The control unit 140 can determine whether the number of component groups is three or more on the left side of the sensor and one or less on the right side of the sensor (S530). If the number of component groups is three or more on the left side of the sensor and one or less on the right side of the sensor, the control unit 140 can determine that the manipulator hand is the user's right hand (S540). Three or more groups of components on the left side of the sensor may indicate that at least three fingers, except the thumb, are in contact with the left side of the sensor. A group of components or less on the right side of the sensor may indicate that the palm of the user's right hand is in contact with the right side of the sensor but the thumb may not be in contact. In such cases, the control unit 140 may determine that the user can manipulate the display screen. tap with the thumb of the user's right hand. That is, a right hand of the user can be used to grasp the apparatus 100 and touch the touch screen 130. Accordingly, the control unit 140 can determine that the manipulator hand is the right hand.
De manera similar, al determinar que la mano manipuladora es la mano izquierda, la unidad 140 de control puede determinar si el número de grupos de componentes es tres o más en la parte derecha del sensor y si es uno o menos en la parte izquierda del sensor (S550).Similarly, by determining that the manipulator hand is the left hand, the control unit 140 can determine whether the number of component groups is three or more on the right side of the sensor and whether it is one or less on the left side of the sensor. sensor (S550).
Si la respuesta es no en ambas etapas 530 y 550, la unidad 140 de control puede determinar que la mano manipuladora es ambas manos (S570).If the answer is no in both steps 530 and 550, the control unit 140 may determine that the manipulator hand is both hands (S570).
La figura 8 ilustra un ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención.Figure 8 illustrates an example of a GUI in accordance with exemplary embodiments of the present invention.
La figura 8 ilustra una realización ejemplar de una pantalla 810 de visualización que tiene iconos de menú y con la mano izquierda determinada como la mano manipuladora. La unidad 140 de control puede disponer los iconos de menú desde la esquina superior izquierda hasta la esquina inferior derecha de la pantalla 810 de visualización para que se correspondan con una trayectoria de movimiento del pulgar izquierdo. Por consiguiente, un usuario puede seleccionar iconos tocando la pantalla 810 de visualización con su pulgar izquierdo para ejecutar funciones deseadas que corresponden a los iconos seleccionados. Dado que los iconos de menú están dispuestos a lo largo de una trayectoria de movimiento del pulgar izquierdo, no se puede ocultar ningún icono del pulgar y se puede evitar un toque inesperado de un icono.Figure 8 illustrates an exemplary embodiment of a display screen 810 having menu icons and with the left hand determined as the manipulative hand. The control unit 140 may arrange the menu icons from the upper left corner to the lower right corner of the display 810 to correspond to a left thumb movement path. Accordingly, a user can select icons by touching the display screen 810 with their left thumb to perform desired functions corresponding to the selected icons. Since the menu icons are arranged along a left thumb movement path, no thumb icon can be hidden and an unexpected touch of an icon can be avoided.
La figura 8 también ilustra una realización ejemplar de una pantalla 820 de visualización con la mano derecha determinada como la mano manipuladora. En tales casos, la unidad 140 de control puede disponer los iconos de menú a lo largo de una trayectoria de movimiento del pulgar derecho. En algunos otros casos cuando se determina que ambas manos son la mano manipuladora, como se muestra mediante la pantalla 830 de visualización en la figura 8, la unidad 140 de control puede mantener una GUI normal cambiable de acuerdo con la intención del usuario.FIG. 8 also illustrates an exemplary embodiment of a right hand display 820 determined as the manipulator hand. In such cases, the control unit 140 may arrange the menu icons along a path of movement of the right thumb. In some other cases when it is determined that both hands are the manipulator hand, as shown by the display screen 830 in FIG. 8, the control unit 140 may maintain a changeable normal GUI in accordance with the intention of the user.
La figura 9 ilustra otro ejemplo de una GUI de acuerdo con realizaciones ejemplares de la presente invención.Figure 9 illustrates another example of a GUI in accordance with exemplary embodiments of the present invention.
La figura 9 ilustra una realización ejemplar de una pantalla 910 de visualización que tiene una barra de desplazamiento y con la mano izquierda determinada como la mano manipuladora. La unidad 140 de control puede disponer la barra de desplazamiento a lo largo del lado izquierdo de la pantalla 910 de visualización para que se corresponda con una trayectoria de movimiento del pulgar izquierdo. Por consiguiente, un usuario puede mover hacia arriba y hacia abajo la barra de desplazamiento arrastrándola con el pulgar izquierdo del usuario. Dado que la barra de desplazamiento puede estar dispuesta a lo largo del lado izquierdo, el contenido mostrado puede no estar oculto por el pulgar y se puede evitar un toque inesperado del contenido mostrado.Figure 9 illustrates an exemplary embodiment of a display screen 910 having a scroll bar and with the left hand determined as the manipulative hand. The control unit 140 may arrange the scroll bar along the left side of the display 910 to correspond to a path of movement of the left thumb. Consequently, a user can move the scroll bar up and down by dragging it with the user's left thumb. Since the scroll bar can be arranged along the left side, the displayed content may not be hidden by the thumb and an unexpected touch of the displayed content can be avoided.
La figura 9 también ilustra una realización ejemplar de una pantalla 920 de visualización que tiene una barra de desplazamiento y con la mano derecha determinada como la mano manipuladora. En tales casos, la unidad 140 de control puede disponer la barra de desplazamiento a lo largo del lado derecho de la pantalla 920 de visualización para que se corresponda con una trayectoria de movimiento del pulgar derecho. Por lo tanto, un usuario puede mover/arrastrar la barra de desplazamiento con el pulgar derecho del usuario sin cubrir ni tocar el contenido mostrado. Por consiguiente, se puede evitar un toque inesperado al contenido mostrado mientras el usuario arrastra la barra de desplazamiento. En algunos otros casos, como se muestra mediante la pantalla 930 de visualización en la figura 9, la unidad 140 de control puede mantener una GUI normal cambiable cuando se determina que ambas manos son la mano manipuladora.Figure 9 also illustrates an exemplary embodiment of a display screen 920 having a scroll bar and with the right hand determined as the manipulator hand. In such cases, the control unit 140 may arrange the scroll bar along the right side of the display 920 to correspond to a path of movement of the right thumb. Therefore, a user can move / drag the scroll bar with the user's right thumb without covering or touching the displayed content. Consequently, an unexpected touch to the displayed content while the user drags the scroll bar can be avoided. In some other cases, as shown by the display screen 930 in FIG. 9, the control unit 140 may maintain a changeable normal GUI when it is determined that both hands are the manipulator hand.
La figura 11 es un diagrama de flujo que ilustra un procedimiento para mostrar una GUI en base a una mano manipuladora de acuerdo con realizaciones ejemplares de la presente invención. El procedimiento descrito con referencia a la figura 11 puede ser aplicable, por ejemplo, cuando un usuario usa la unidad 110 de sensor táctil para ingresar un comando al aparato 100.FIG. 11 is a flow chart illustrating a method for displaying a GUI based on a manipulator hand in accordance with exemplary embodiments of the present invention. The procedure described with reference to FIG. 11 may be applicable, for example, when a user uses the touch sensor unit 110 to input a command to the apparatus 100.
Refiriéndose a la figura 11, la unidad 110 de sensor táctil puede detectar un contacto del usuario (S1110). El contacto del usuario puede corresponder al asimiento del usuario del aparato 100. Por ejemplo, el usuario puede asir el aparato 100 con una mano como se muestra en la figura 12A y figura 12B o con ambas manos como se muestra en la figura 13A y figura 13B. Cuando se detecta el contacto del usuario, la unidad 110 de sensor táctil puede transmitir la señal de detección de contacto, la cual incluye información sobre la ubicación y presión de contactos, a la unidad 140 de control.Referring to FIG. 11, the touch sensor unit 110 can detect a user contact (S1110). The user's contact may correspond to the user's grasp of the apparatus 100. For example, the user may grasp the apparatus 100 with one hand as shown in FIG. 12A and FIG. 12B or with both hands as shown in FIG. 13A and FIG. 13B. When user contact is detected, the touch sensor unit 110 may transmit the contact detection signal, which includes information about the location and pressure of contacts, to the control unit 140.
La unidad 140 de control puede recibir la señal de detección de contacto de la unidad 110 de sensor táctil (S1120). A continuación, la unidad 140 de control puede determinar el patrón de contacto del usuario dependiendo de la señal de detección de contacto (S1130). La determinación del patrón de contacto del usuario puede basarse en información sobre la ubicación y presión de contactos. En algunos casos, la unidad 120 de memoria puede almacenar una lista de las formas de asimiento del usuario en relación con la ubicación y presión de los contactos del usuario. La unidad 140 de control puede recuperar, desde la unidad 120 de memoria, una forma de asimiento específica que corresponde a la información recibida sobre la ubicación y presión de contactos. Por ejemplo, la unidad 140 de control puede determinar que una mano izquierda del usuario ase el aparato 100 si se reciben dos señales de detección de contacto de la parte izquierda del sensor y cuatro señales de detección de contacto de la parte derecha del sensor, como se muestra en la figura 12A.The control unit 140 may receive the contact detection signal from the touch sensor unit 110 (S1120). Then, the control unit 140 can determine the user's contact pattern depending on the contact detection signal (S1130). Determination of the user's contact pattern may be based on information about contact location and pressure. In some cases, the memory unit 120 may store a list of the user's grasp forms in relation to the location and pressure of the user's contacts. The control unit 140 may retrieve, from the memory unit 120, a specific grasp shape corresponding to the information received about the location and pressure of contacts. For example, control unit 140 may determine that a user's left hand grabs apparatus 100 if two contact detection signals are received. from the left side of the sensor and four contact detection signals from the right side of the sensor, as shown in Figure 12A.
Entonces, la unidad 140 de control puede indicar a la unidad 132 de visualización que muestre una GUI en una ubicación específica en la unidad 132 de visualización dependiendo de la ubicación de contacto del usuario (S1140). Específicamente, la unidad 140 de control puede identificar primero la aplicación ejecutada actualmente (antes de mostrar una GUI), y luego puede seleccionar elementos de GUI que corresponden a la aplicación ejecutada actualmente. Por ejemplo, cuando se está ejecutando una aplicación de pantalla inactiva, la unidad 140 de control puede seleccionar iconos de menú como elementos de GUI para una pantalla inactiva. En otros casos, si se está ejecutando una aplicación de cámara, la unidad 140 de control puede seleccionar un icono para tomar una foto y una barra de desplazamiento para acercar/alejar para mostrar. Después de seleccionar elementos de GUI personalizados, la unidad 140 de control puede determinar un patrón de disposición de GUI en base a la aplicación ejecutada actualmente y la forma de asimiento del usuario. Por ejemplo, refiriéndose a la figura 12A y figura 12B, la unidad 140 de control puede reconocer una aplicación de pantalla inactiva como la aplicación ejecutada actualmente y también puede determinar que la mano izquierda del usuario está asiendo el aparato 100. La unidad 140 de control puede entonces determinar un patrón de disposición de GUI de tal manera que los iconos de menú se pueden disponer cerca de una ubicación de contacto de al menos uno de los cuatro dedos (excepto el pulgar) de la mano izquierda del usuario. Then, the control unit 140 may instruct the display unit 132 to display a GUI at a specific location on the display unit 132 depending on the contact location of the user (S1140). Specifically, the control unit 140 may first identify the currently running application (before displaying a GUI), and then it may select GUI items that correspond to the currently running application. For example, when an idle screen application is running, the control unit 140 may select menu icons as GUI items for an idle screen. In other cases, if a camera application is running, the control unit 140 may select an icon to take a photo and a scroll bar to zoom in / out to display. After selecting custom GUI items, the control unit 140 may determine a GUI layout pattern based on the currently running application and the user's grasp. For example, referring to FIG. 12A and FIG. 12B, the control unit 140 may recognize an idle screen application as the currently running application and may also determine that the user's left hand is grasping the apparatus 100. The control unit 140 You can then determine a GUI layout pattern such that the menu icons can be arranged near a contact location of at least one of the four fingers (except the thumb) of the user's left hand.
Después de determinar un patrón de disposición de GUI, la unidad 140 de control puede indicar a la unidad 132 de visualización que muestre elementos de GUI en base al patrón de disposición de GUI. Es decir, los elementos de GUI previamente seleccionados pueden mostrarse en la unidad 132 de visualización de acuerdo con el patrón de disposición de GUI.After determining a GUI layout pattern, the control unit 140 may instruct the display unit 132 to display GUI items based on the GUI layout pattern. That is, the previously selected GUI elements can be displayed on the display unit 132 in accordance with the GUI layout pattern.
La figura 12A y figura 12B ilustran dos ejemplos de una pantalla en la cual se muestran iconos de menú en una aplicación de pantalla inactiva de acuerdo con realizaciones ejemplares de la presente invención. Como se muestra en la figura 12a y figura 12B, se pueden disponer tres iconos de menú en posiciones en una dirección a lo ancho desde tres ubicaciones de contacto de dedos. La unidad 120 de memoria puede almacenar clasificaciones de qué tan frecuentemente se usan se usan los menús e iconos de menú. La unidad 140 de control puede disponer iconos de menú en orden de la frecuencia de uso. Por ejemplo, cuando un usuario ase el aparato 100 durante la ejecución de una aplicación de pantalla inactiva, la unidad 140 de control puede recuperar las clasificaciones de frecuencia de uso menús desde la unidad 120 de memoria y puede indicar a la unidad 132 de visualización que muestre iconos de menú de acuerdo con clasificaciones recuperadas. La visualización de iconos en la unidad 132 de visualización puede cambiarse de acuerdo con la preferencia del usuario.FIG. 12A and FIG. 12B illustrate two examples of a screen in which menu icons are displayed in an idle screen application in accordance with exemplary embodiments of the present invention. As shown in Fig. 12a and Fig. 12B, three menu icons can be arranged at positions in one direction across from three finger contact locations. The memory unit 120 can store ratings of how frequently the menus and menu icons are used. Control unit 140 may arrange menu icons in order of frequency of use. For example, when a user grabs the apparatus 100 during the execution of an idle screen application, the control unit 140 may retrieve the frequency-of-use ratings menus from the memory unit 120 and may instruct the display unit 132 to display menu icons according to retrieved ratings. The icon display on the display unit 132 can be changed according to the user's preference.
La unidad 140 de control también puede cambiar la ubicación de los elementos de GUI de acuerdo con la presión del contacto del usuario. Refiriéndose a la figura 12A y figura 12B, cuando el usuario aumenta la presión (por ejemplo, la presión aumenta más allá de un umbral de presión predeterminado) de contactos mientras que ase el aparato 100, los iconos de menú mostrados en la unidad 132 de visualización pueden moverse hacia el lado derecho de la pantalla, a saber, hacia los dedos presionados. Adicionalmente, la unidad 140 de control puede ejecutar una aplicación específica cuando el icono correspondiente alcanza el lado derecho de la unidad 132 de visualización. En algunos casos, la unidad 140 de control puede decidir si ejecutar aplicaciones en base a la presión de contacto de los dedos del usuario y/o cuando los iconos alcanzan el lado derecho de la unidad 132 de visualización.The control unit 140 can also change the location of the GUI elements in accordance with the user's contact pressure. Referring to FIG. 12A and FIG. 12B, when the user increases the pressure (eg, the pressure increases beyond a predetermined pressure threshold) of contacts while gripping the apparatus 100, the menu icons displayed on the unit 132 of display can be moved to the right side of the screen, namely to the pressed fingers. Additionally, the control unit 140 can execute a specific application when the corresponding icon reaches the right side of the display unit 132. In some cases, the control unit 140 may decide whether to execute applications based on the contact pressure of the user's fingers and / or when the icons reach the right side of the display unit 132.
La unidad 140 de control también puede cambiar el tamaño de visualización de elementos de GUI de acuerdo con la presión de un contacto del usuario. Por ejemplo, cuando el usuario aumenta la presión de contactos, los iconos de menú mostrados en la unidad 132 de visualización pueden ampliarse o reducirse en tamaño. Un aumento de presión de contacto puede resaltar los iconos de menú mostrados en la unidad 132 de visualización.The control unit 140 can also change the display size of GUI elements in accordance with the pressure of a user contact. For example, when the user increases the contact pressure, the menu icons displayed on the display unit 132 may be enlarged or reduced in size. An increase in contact pressure may highlight the menu icons displayed on the display unit 132.
La figura 13A y figura 13B ilustran dos ejemplos de una pantalla en la cual se muestran iconos de función en una aplicación de cámara de acuerdo con realizaciones ejemplares de la presente invención. Refiriéndose a la figura 13A y figura 13B, un usuario puede asir el aparato 100 con los pulgares e índices de ambas manos. Un icono para tomar una foto puede estar ubicado en una posición cercana al índice de la mano derecha, y una barra de desplazamiento para acercar/alejar puede estar ubicada en una posición en una dirección a lo largo desde el pulgar de la mano derecha. Si el usuario aumenta la presión de contacto mediante el índice derecho, un icono para tomar una foto se mueve hacia el índice derecho. Cuando este icono alcanza el lado superior de la unidad 132 de visualización, se puede ejecutar una función de tomar una foto. Además, el usuario puede aumentar la presión de contacto mediante el pulgar derecho para regular el acercamiento/alejamiento.Figure 13A and Figure 13B illustrate two examples of a screen on which function icons are displayed in a camera application in accordance with exemplary embodiments of the present invention. Referring to Figure 13A and Figure 13B, a user can grasp the apparatus 100 with the thumbs and forefingers of both hands. An icon for taking a photo can be located at a position near the index of the right hand, and a scroll bar for zooming in / out can be located at a position in a direction along from the thumb of the right hand. If the user increases the contact pressure using the right index, an icon for taking a photo moves to the right index. When this icon reaches the upper side of the display unit 132, a function of taking a photo can be executed. In addition, the user can increase the contact pressure by using the right thumb to regulate the zoom in / out.
La figura 14A y la figura 14B ilustra dos ejemplos de una pantalla en la cual se muestran iconos de función en una aplicación de MP3. Refiriéndose a la figura 14A y figura 14B, un usuario puede asir el aparato 100 con la mano izquierda. Los iconos de función pueden mostrarse dependiendo de las ubicaciones de contacto de los dedos de la mano izquierda excepto el pulgar, mientras que una barra de control de volumen puede mostrarse dependiendo de la ubicación de contacto del pulgar. Los iconos de función mostrados pueden seguir un patrón de disposición de GUI predefinido. Mientras que ase el aparato 100, el usuario puede regular la ejecución de una aplicación de MP3 aumentando una presión de contacto o realizando una acción tal como golpeteo. Por ejemplo, la ubicación, tamaño, y/o efecto de expresión de los iconos pueden variar de acuerdo con el contacto del usuario. Figure 14A and Figure 14B illustrate two examples of a screen in which function icons are displayed in an MP3 application. Referring to Fig. 14A and Fig. 14B, a user can grasp the apparatus 100 with the left hand. Function icons may be displayed depending on the contact locations of the left hand fingers other than the thumb, while a volume control bar may be displayed depending on the contact location of the thumb. The function icons displayed can follow a predefined GUI layout pattern. While gripping the apparatus 100, the user can regulate the execution of an MP3 application by increasing a contact pressure or by performing an action such as tapping. For example, the location, size, and / or expression effect of the icons may vary according to the user's contact.
Volviendo a la figura 11, después de mostrar una GUI, la unidad 140 de control puede determinar si la ubicación de contacto del usuario ha cambiado (S1150). Específicamente, cuando un usuario cambia una forma de asimiento mientras que ase el aparato 100, la unidad 110 de sensor táctil puede detectar un cambio en el contacto del usuario y puede generar una nueva señal de detección de contacto. La unidad 140 de control puede entonces recibir la nueva señal de detección de contacto desde la unidad 110 de sensor táctil, puede determinar el patrón de contacto del usuario de nuevo, y puede modificar la visualización de una GUI dependiendo del nuevo patrón de contacto.Returning to Fig. 11, after displaying a GUI, the control unit 140 can determine whether the contact location of the user has changed (S1150). Specifically, when a user changes a grip shape while gripping the apparatus 100, the touch sensor unit 110 can detect a change in the user's contact and can generate a new contact detection signal. The control unit 140 can then receive the new contact detection signal from the touch sensor unit 110, can determine the user's contact pattern again, and can modify the display of a GUI depending on the new contact pattern.
Refiriéndose a la figura 12A y figura 12B, el contacto del usuario en la figura 12B puede ser diferente al contacto del usuario en la figura 12A. Por ejemplo, la ubicación de los dedos puede haberse movido hacia abajo en la figura 12B. La unidad 140 de control puede recibir una nueva señal de detección de contacto desde la unidad 110 de sensor táctil y puede determinar un nuevo patrón de contacto en base a nueva información sobre la ubicación y presión de contactos. La unidad 140 de control puede entonces indicar a la visualización de una GUI que cambie de acuerdo con el nuevo patrón de contacto.Referring to Figure 12A and Figure 12B, the user contact in Figure 12B may be different from the user contact in Figure 12A. For example, the location of the fingers may have moved downward in Figure 12B. Control unit 140 may receive a new contact detection signal from touch sensor unit 110 and may determine a new contact pattern based on new information on contact location and pressure. The control unit 140 may then instruct a GUI display to change in accordance with the new contact pattern.
Comparando la figura 13A y figura 13B, el índice derecho del usuario puede haberse movido (por ejemplo, hacia la izquierda) en la figura 13B, en comparación con la figura 13A. La unidad 140 de control puede recibir una nueva señal de detección de contacto, determinar un nuevo patrón de contacto, y mover el icono de foto hacia un contacto actual de índice, como se muestra en la figura 13B.Comparing Figure 13A and Figure 13B, the user's right index may have moved (eg, to the left) in Figure 13B, compared to Figure 13A. Control unit 140 can receive a new contact detection signal, determine a new contact pattern, and move the photo icon to a current index contact, as shown in FIG. 13B.
Refiriéndose a la figura 14A y figura 14B, el número de contactos así como la ubicación de contactos pueden cambiar. Por ejemplo, cuatro contactos en el lado derecho en la figura 14A pueden moverse hacia abajo y pueden reducirse a tres contactos en la figura 14B. Además, un contacto en el lado izquierdo puede moverse hacia abajo. Una barra de control de volumen también puede moverse hacia abajo a lo largo del lado izquierdo. Adicionalmente, un icono de retroceso, un icono de reproducción/pausa, y un icono de detención pueden moverse hacia abajo a lo largo del lado derecho, mientras que un icono de avance que corresponde a un dedo (por ejemplo, dedo más pequeño) de la mano izquierda se puede retirar de la unidad 132 de visualización.Referring to Figure 14A and Figure 14B, the number of contacts as well as the location of the contacts may change. For example, four contacts on the right side in Figure 14A can move downward and can be reduced to three contacts in Figure 14B. Also, a contact on the left side can move down. A volume control bar can also be moved down along the left side. Additionally, a back icon, a play / pause icon, and a stop icon can move down along the right side, while a forward icon that corresponds to a finger (for example, smallest finger) of the left hand can be removed from the display unit 132.
Como se indicó anteriormente, realizaciones ejemplares de la presente invención divulgan un procedimiento y aparato para mostrar y modificar una GUI dependiendo de la ubicación y presión de unos contactos del usuario. Por consiguiente, realizaciones ejemplares de la presente invención pueden evitar la confusión cuando un usuario manipula un aparato.As indicated above, exemplary embodiments of the present invention disclose a method and apparatus for displaying and modifying a GUI depending on the location and pressure of a user's contacts. Accordingly, exemplary embodiments of the present invention can avoid confusion when a user manipulates an apparatus.
Será evidente para los expertos en la técnica que se pueden realizar diversas modificaciones y variaciones en la presente invención sin apartarse del alcance de la invención definida en las reivindicaciones adjuntas. It will be apparent to those skilled in the art that various modifications and variations can be made to the present invention without departing from the scope of the invention defined in the appended claims.
Claims (14)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080097591 | 2008-10-06 | ||
KR1020090012687A KR20100039194A (en) | 2008-10-06 | 2009-02-17 | Method for displaying graphic user interface according to user's touch pattern and apparatus having the same |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2776103T3 true ES2776103T3 (en) | 2020-07-29 |
Family
ID=42215793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES09167533T Active ES2776103T3 (en) | 2008-10-06 | 2009-08-10 | Procedure and apparatus to display graphical user interface depending on a contact pattern of the user |
Country Status (3)
Country | Link |
---|---|
KR (1) | KR20100039194A (en) |
CN (3) | CN106909304B (en) |
ES (1) | ES2776103T3 (en) |
Families Citing this family (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012019350A1 (en) * | 2010-08-12 | 2012-02-16 | Google Inc. | Finger identification on a touchscreen |
CN102375652A (en) * | 2010-08-16 | 2012-03-14 | 中国移动通信集团公司 | Mobile terminal user interface regulation system and method |
CN102402275B (en) * | 2010-09-13 | 2017-05-24 | 联想(北京)有限公司 | Portable electronic equipment and holding gesture detection method |
WO2012049942A1 (en) * | 2010-10-13 | 2012-04-19 | Necカシオモバイルコミュニケーションズ株式会社 | Mobile terminal device and display method for touch panel in mobile terminal device |
CN102479035A (en) * | 2010-11-23 | 2012-05-30 | 汉王科技股份有限公司 | Electronic device with touch screen, and method for displaying left or right hand control interface |
JP2012168932A (en) * | 2011-02-10 | 2012-09-06 | Sony Computer Entertainment Inc | Input device, information processing device and input value acquisition method |
CN102131003A (en) * | 2011-04-06 | 2011-07-20 | 罗蒙明 | Method for judging finger key pressing on virtual keyboard of mobile phone with touch screen |
CN102790816A (en) * | 2011-05-16 | 2012-11-21 | 中兴通讯股份有限公司 | Processing method and device of pushbutton function |
CN102810039A (en) * | 2011-05-31 | 2012-12-05 | 中兴通讯股份有限公司 | Left or right hand adapting virtual keyboard display method and terminal |
CN102841723B (en) * | 2011-06-20 | 2016-08-10 | 联想(北京)有限公司 | Portable terminal and display changeover method thereof |
JP5453351B2 (en) * | 2011-06-24 | 2014-03-26 | 株式会社Nttドコモ | Mobile information terminal, operation state determination method, program |
JP5588931B2 (en) * | 2011-06-29 | 2014-09-10 | 株式会社Nttドコモ | Mobile information terminal, arrangement area acquisition method, program |
CN102299996A (en) * | 2011-08-19 | 2011-12-28 | 华为终端有限公司 | Handheld device operating mode distinguishing method and handheld device |
JP5911961B2 (en) * | 2011-09-30 | 2016-04-27 | インテル コーポレイション | Mobile devices that eliminate unintentional touch sensor contact |
KR101908947B1 (en) | 2011-11-23 | 2018-10-17 | 삼성전자주식회사 | Method and apparatus for peripheral connection |
KR101866272B1 (en) * | 2011-12-15 | 2018-06-12 | 삼성전자주식회사 | Apparatas and method of user based using for grip sensor in a portable terminal |
CN102722247A (en) * | 2012-03-09 | 2012-10-10 | 张伟明 | Operation and control component, information processing system using same and information processing method thereof |
CN103324423B (en) * | 2012-03-21 | 2018-11-13 | 北京三星通信技术研究有限公司 | A kind of terminal and its method for displaying user interface |
KR101979666B1 (en) | 2012-05-15 | 2019-05-17 | 삼성전자 주식회사 | Operation Method For plural Touch Panel And Portable Device supporting the same |
CN102662603A (en) * | 2012-05-18 | 2012-09-12 | 广州市渡明信息技术有限公司 | Input method display method and input method display system for mobile phone with touch screen |
KR101995486B1 (en) * | 2012-06-26 | 2019-07-02 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
CN102890558B (en) * | 2012-10-26 | 2015-08-19 | 北京金和软件股份有限公司 | The method of mobile hand-held device handheld motion state is detected based on sensor |
CN103809866B (en) * | 2012-11-13 | 2018-07-06 | 联想(北京)有限公司 | A kind of operation mode switching method and electronic equipment |
CN103118166B (en) * | 2012-11-27 | 2014-11-12 | 广东欧珀移动通信有限公司 | Method of realizing single hand operation of mobile phone based on pressure sensing |
US9591339B1 (en) | 2012-11-27 | 2017-03-07 | Apple Inc. | Agnostic media delivery system |
US9774917B1 (en) | 2012-12-10 | 2017-09-26 | Apple Inc. | Channel bar user interface |
CN103870140B (en) * | 2012-12-13 | 2018-01-23 | 联想(北京)有限公司 | A kind of object processing method and device |
US10200761B1 (en) | 2012-12-13 | 2019-02-05 | Apple Inc. | TV side bar user interface |
US9532111B1 (en) | 2012-12-18 | 2016-12-27 | Apple Inc. | Devices and method for providing remote control hints on a display |
CN103576850A (en) * | 2012-12-26 | 2014-02-12 | 深圳市创荣发电子有限公司 | Method and system for judging holding mode of handheld device |
CN103902141A (en) * | 2012-12-27 | 2014-07-02 | 北京富纳特创新科技有限公司 | Device and method for achieving dynamic arrangement of desktop functional icons |
US20140184519A1 (en) * | 2012-12-28 | 2014-07-03 | Hayat Benchenaa | Adapting user interface based on handedness of use of mobile computing device |
US10521188B1 (en) | 2012-12-31 | 2019-12-31 | Apple Inc. | Multi-user TV user interface |
US9904394B2 (en) | 2013-03-13 | 2018-02-27 | Immerson Corporation | Method and devices for displaying graphical user interfaces based on user contact |
JP5995171B2 (en) * | 2013-03-13 | 2016-09-21 | シャープ株式会社 | Electronic device, information processing method, and information processing program |
CN104360813B (en) * | 2013-04-12 | 2016-03-30 | 努比亚技术有限公司 | A kind of display device and information processing method thereof |
CN104216602B (en) * | 2013-05-31 | 2017-10-20 | 国际商业机器公司 | A kind of method and system for control slide block |
KR102139110B1 (en) * | 2013-06-20 | 2020-07-30 | 삼성전자주식회사 | Electronic device and method for controlling using grip sensing in the electronic device |
KR102138505B1 (en) * | 2013-07-10 | 2020-07-28 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US9134818B2 (en) * | 2013-07-12 | 2015-09-15 | Facebook, Inc. | Isolating mobile device electrode |
US10162416B2 (en) * | 2013-09-06 | 2018-12-25 | Immersion Corporation | Dynamic haptic conversion system |
CN104714731B (en) * | 2013-12-12 | 2019-10-11 | 南京中兴软件有限责任公司 | The display methods and device of terminal interface |
US20150192989A1 (en) * | 2014-01-07 | 2015-07-09 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
CN103795949A (en) * | 2014-01-14 | 2014-05-14 | 四川长虹电器股份有限公司 | Control terminal, device terminal and system for adjusting volume of device terminal |
KR102155091B1 (en) * | 2014-01-22 | 2020-09-11 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
CN104850339B (en) * | 2014-02-19 | 2018-06-01 | 联想(北京)有限公司 | A kind of information processing method and electronic equipment |
CN104915073B (en) * | 2014-03-14 | 2018-06-01 | 敦泰科技有限公司 | Hand-held type touch device |
US9239648B2 (en) * | 2014-03-17 | 2016-01-19 | Google Inc. | Determining user handedness and orientation using a touchscreen device |
US9727161B2 (en) * | 2014-06-12 | 2017-08-08 | Microsoft Technology Licensing, Llc | Sensor correlation for pen and touch-sensitive computing device interaction |
JP6482578B2 (en) | 2014-06-24 | 2019-03-13 | アップル インコーポレイテッドApple Inc. | Column interface for navigating in the user interface |
CN117573019A (en) * | 2014-06-24 | 2024-02-20 | 苹果公司 | Input device and user interface interactions |
CN105468269A (en) * | 2014-08-15 | 2016-04-06 | 深圳市中兴微电子技术有限公司 | Mobile terminal capable of automatically identifying holding by left hand or right hand, and implementation method thereof |
CN105468245B (en) * | 2014-08-22 | 2020-05-01 | 中兴通讯股份有限公司 | Terminal and display method of terminal operation interface |
KR102291565B1 (en) | 2014-12-03 | 2021-08-19 | 삼성디스플레이 주식회사 | Display device and drving method for display devece using the same |
CN104461322A (en) * | 2014-12-30 | 2015-03-25 | 中科创达软件股份有限公司 | Display method and system for user interface of handheld device |
CN104615368A (en) * | 2015-01-21 | 2015-05-13 | 上海华豚科技有限公司 | Following switching method of keyboard interface |
CN104571919A (en) * | 2015-01-26 | 2015-04-29 | 深圳市中兴移动通信有限公司 | Terminal screen display method and device |
CN104679427B (en) * | 2015-01-29 | 2017-03-15 | 努比亚技术有限公司 | Terminal split-screen display method and system |
KR101686629B1 (en) * | 2015-01-30 | 2016-12-14 | 한국과학기술연구원 | Method for determining location in virtual space indicated by users input regarding information on pressure and apparatus and computer-readable recording medium using the same |
CN105988692A (en) * | 2015-02-02 | 2016-10-05 | 中兴通讯股份有限公司 | Handheld electronic equipment, and method and device for controlling handheld electronic equipment |
KR102358110B1 (en) | 2015-03-05 | 2022-02-07 | 삼성디스플레이 주식회사 | Display apparatus |
CN104731501B (en) * | 2015-03-25 | 2016-03-23 | 努比亚技术有限公司 | Control chart calibration method and mobile terminal |
CN104735256B (en) * | 2015-03-27 | 2016-05-18 | 努比亚技术有限公司 | Holding mode determination methods and the device of mobile terminal |
CN104834463A (en) * | 2015-03-31 | 2015-08-12 | 努比亚技术有限公司 | Holding recognition method and device of mobile terminal |
KR102384284B1 (en) * | 2015-04-01 | 2022-04-08 | 삼성전자주식회사 | Apparatus and method for controlling volume using touch screen |
CN104765541A (en) * | 2015-04-10 | 2015-07-08 | 南京理工大学 | Method and system for identifying whether left hand or right hand operates mobile phone |
CN104898959B (en) * | 2015-04-30 | 2018-06-05 | 努比亚技术有限公司 | A kind of method and apparatus for adjusting virtual push button position |
CN104866136B (en) * | 2015-05-11 | 2019-02-15 | 努比亚技术有限公司 | A kind of method and device of determining terminal operating mode |
KR102422181B1 (en) * | 2015-06-02 | 2022-07-18 | 삼성전자주식회사 | Method for controling a display of an electronic device and the electronic device thereof |
CN104915143B (en) * | 2015-06-19 | 2019-01-22 | 努比亚技术有限公司 | The control method and terminal of Rimless mobile terminal |
US10157410B2 (en) * | 2015-07-14 | 2018-12-18 | Ebay Inc. | Enhanced shopping actions on a mobile device |
CN105227768A (en) * | 2015-09-18 | 2016-01-06 | 努比亚技术有限公司 | A kind of application APP display system and method |
CN105183235B (en) * | 2015-10-19 | 2018-02-06 | 上海斐讯数据通信技术有限公司 | A kind of method of touch-control platen edge false-touch prevention |
CN105224181B (en) * | 2015-10-20 | 2018-05-25 | 魅族科技(中国)有限公司 | A kind of sidebar display methods and device |
CN106610746A (en) * | 2015-10-26 | 2017-05-03 | 青岛海信移动通信技术股份有限公司 | Mobile terminal and control method thereof |
CN105573622A (en) * | 2015-12-15 | 2016-05-11 | 广东欧珀移动通信有限公司 | Single-hand control method and device of user interface and terminal device |
KR101876020B1 (en) * | 2016-05-10 | 2018-07-06 | 홍익대학교세종캠퍼스산학협력단 | Cursor Scrolling Control Method Using A 3D Touch Of A Mobile Device |
DK201670581A1 (en) | 2016-06-12 | 2018-01-08 | Apple Inc | Device-level authorization for viewing content |
DK201670582A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Identifying applications on which content is available |
CN106406656B (en) * | 2016-08-30 | 2019-07-26 | 维沃移动通信有限公司 | A kind of control method and mobile terminal of application tool bar |
US11966560B2 (en) | 2016-10-26 | 2024-04-23 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
KR102659062B1 (en) * | 2016-11-29 | 2024-04-19 | 삼성전자주식회사 | Device for displaying user interface based on sensing signal of grip sensor |
CN106648329A (en) * | 2016-12-30 | 2017-05-10 | 维沃移动通信有限公司 | Application icon display method and mobile terminal |
US10635255B2 (en) | 2017-04-18 | 2020-04-28 | Google Llc | Electronic device response to force-sensitive interface |
CN109710099A (en) * | 2017-10-26 | 2019-05-03 | 南昌欧菲生物识别技术有限公司 | Electronic device |
WO2019113895A1 (en) * | 2017-12-14 | 2019-06-20 | 深圳市柔宇科技有限公司 | Control method and electronic device |
DK201870354A1 (en) | 2018-06-03 | 2019-12-20 | Apple Inc. | Setup procedures for an electronic device |
US10838541B2 (en) * | 2018-09-03 | 2020-11-17 | Htc Corporation | Method for operating handheld device, handheld device and computer-readable recording medium thereof |
KR102539579B1 (en) | 2018-12-18 | 2023-06-05 | 삼성전자주식회사 | Electronic device for adaptively changing display area of information and operation method thereof |
CN113906419A (en) | 2019-03-24 | 2022-01-07 | 苹果公司 | User interface for media browsing application |
US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
US20200301567A1 (en) | 2019-03-24 | 2020-09-24 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
US11445263B2 (en) | 2019-03-24 | 2022-09-13 | Apple Inc. | User interfaces including selectable representations of content items |
US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
EP3977245A1 (en) | 2019-05-31 | 2022-04-06 | Apple Inc. | User interfaces for a podcast browsing and playback application |
CN112486346B (en) * | 2019-09-12 | 2023-05-30 | 北京小米移动软件有限公司 | Key mode setting method, device and storage medium |
JP7279622B2 (en) * | 2019-11-22 | 2023-05-23 | トヨタ自動車株式会社 | display device and display program |
US20230142200A1 (en) * | 2020-02-10 | 2023-05-11 | Nec Corporation | Non-transitory storage medium, processing method for portable terminal, and portable terminal |
US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
CN112543362A (en) * | 2020-11-02 | 2021-03-23 | 当趣网络科技(杭州)有限公司 | Display interface switching method, remote controller, television system and electronic equipment |
KR20220064162A (en) * | 2020-11-11 | 2022-05-18 | 삼성전자주식회사 | An electronic device including a stretchable display |
US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
CN113867594A (en) * | 2021-10-21 | 2021-12-31 | 元心信息科技集团有限公司 | Information input panel switching method and device, electronic equipment and storage medium |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7800592B2 (en) * | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
US20050134578A1 (en) * | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
CN1241109C (en) * | 2001-07-17 | 2006-02-08 | 仁宝电脑工业股份有限公司 | Touch display able to control amplificatino rabio by pressure |
US7009599B2 (en) * | 2001-11-20 | 2006-03-07 | Nokia Corporation | Form factor for portable device |
US20030117376A1 (en) * | 2001-12-21 | 2003-06-26 | Elen Ghulam | Hand gesturing input device |
GB0201074D0 (en) * | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
US7116314B2 (en) * | 2003-05-06 | 2006-10-03 | International Business Machines Corporation | Method for distribution wear for a touch entry display |
WO2005008444A2 (en) * | 2003-07-14 | 2005-01-27 | Matt Pallakoff | System and method for a portbale multimedia client |
DE602004013116T2 (en) * | 2004-01-20 | 2009-07-02 | Sony Deutschland Gmbh | Haptic key-controlled data entry |
KR100608576B1 (en) * | 2004-11-19 | 2006-08-03 | 삼성전자주식회사 | Apparatus and method for controlling a potable electronic device |
CN101133385B (en) * | 2005-03-04 | 2014-05-07 | 苹果公司 | Hand held electronic device, hand held device and operation method thereof |
CN1901785B (en) * | 2005-07-22 | 2012-08-29 | 鸿富锦精密工业(深圳)有限公司 | Display device and its display control method |
CN100592247C (en) * | 2005-09-21 | 2010-02-24 | 鸿富锦精密工业(深圳)有限公司 | Multi-gradation menu displaying device and display control method |
CN1940834B (en) * | 2005-09-30 | 2014-10-29 | 鸿富锦精密工业(深圳)有限公司 | Circular menu display device and its display controlling method |
JP4699955B2 (en) * | 2006-07-21 | 2011-06-15 | シャープ株式会社 | Information processing device |
KR101144423B1 (en) * | 2006-11-16 | 2012-05-10 | 엘지전자 주식회사 | Mobile phone and display method of the same |
JP2008204402A (en) * | 2007-02-22 | 2008-09-04 | Eastman Kodak Co | User interface device |
-
2009
- 2009-02-17 KR KR1020090012687A patent/KR20100039194A/en active Search and Examination
- 2009-08-10 ES ES09167533T patent/ES2776103T3/en active Active
- 2009-09-14 CN CN201710119581.4A patent/CN106909304B/en active Active
- 2009-09-14 CN CN200910169036A patent/CN101714055A/en active Pending
- 2009-09-14 CN CN201710119962.2A patent/CN106909305B/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN106909305A (en) | 2017-06-30 |
KR20100039194A (en) | 2010-04-15 |
CN101714055A (en) | 2010-05-26 |
CN106909304A (en) | 2017-06-30 |
CN106909304B (en) | 2020-08-14 |
CN106909305B (en) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2776103T3 (en) | Procedure and apparatus to display graphical user interface depending on a contact pattern of the user | |
EP2175344B1 (en) | Method and apparatus for displaying graphical user interface depending on a user's contact pattern | |
JP5983503B2 (en) | Information processing apparatus and program | |
US9285950B2 (en) | Hover-over gesturing on mobile devices | |
JP5507494B2 (en) | Portable electronic device with touch screen and control method | |
US7856605B2 (en) | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display | |
JP5529700B2 (en) | Information processing apparatus, control method thereof, and program | |
EP2431853A2 (en) | Character input device | |
CN110874117B (en) | Method for operating handheld device, and computer-readable recording medium | |
TWI659353B (en) | Electronic apparatus and method for operating thereof | |
CN103995668A (en) | Information processing method and electronic device | |
US20130321322A1 (en) | Mobile terminal and method of controlling the same | |
JP5507646B2 (en) | Operation key group layout method and operation key group layout device in portable terminal device | |
KR20110066025A (en) | Operation method of touch pannel and touch pannel driving chip | |
US20170075453A1 (en) | Terminal and terminal control method | |
KR102026882B1 (en) | Method and apparatus for distinguishing five fingers in electronic device including touch screen | |
KR20100002758A (en) | Method of detecting effective touch of key in portable terminal and portable terminal performing the same | |
KR101678213B1 (en) | An apparatus for user interface by detecting increase or decrease of touch area and method thereof | |
JP2011227913A (en) | Control method of device with touch panel and device with touch panel | |
JP5855481B2 (en) | Information processing apparatus, control method thereof, and control program thereof | |
KR20120094728A (en) | Method for providing user interface and mobile terminal using the same | |
JP2014207000A (en) | Portable electronic apparatus and control program of portable electronic apparatus | |
JP5819276B2 (en) | Portable electronic device and control program for portable electronic device | |
KR20120095130A (en) | Operation method of personal portable device having touch panel | |
JP2012080568A (en) | Portable terminal device and layout method of operation key group in the portable terminal device |