ES2763957T3 - Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo - Google Patents

Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo Download PDF

Info

Publication number
ES2763957T3
ES2763957T3 ES12159699T ES12159699T ES2763957T3 ES 2763957 T3 ES2763957 T3 ES 2763957T3 ES 12159699 T ES12159699 T ES 12159699T ES 12159699 T ES12159699 T ES 12159699T ES 2763957 T3 ES2763957 T3 ES 2763957T3
Authority
ES
Spain
Prior art keywords
micro
application
information
display
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12159699T
Other languages
English (en)
Inventor
Nam Jo Heo
Sang Yup Lee
Yong Seok Kim
Kwang Sub Son
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45874693&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2763957(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2763957T3 publication Critical patent/ES2763957T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Un procedimiento que comprende: mostrar (S101), en una pantalla (140) táctil de un terminal (100) móvil, una primera micro-aplicación (151, 200, 300) en un primer tamaño y en una primera disposición de información asociada con el primer tamaño y con mostrar un primer conjunto de información proporcionada a través de la primera micro-aplicación; cambiar (S107) a un modo de edición de micro-aplicaciones en respuesta a la detección (S103) de un primer evento táctil predeterminado en la primera micro-aplicación; mientras se encuentra en el modo de edición de micro-aplicaciones, cambiar la primera micro-aplicación por una segunda micro-aplicación relacionad con la primera micro-aplicación, en respuesta a una entrada táctil de arrastre, en el que cambiar la primera micro-aplicación por la segunda micro-aplicación comprende seleccionar (S109) la segunda micro-aplicación cuando la entrada táctil de arrastre alcanza una distancia preestablecida en una dirección predeterminada y mostrar (S111) una imagen de vista previa de la segunda micro-aplicación en una segunda disposición de información que está asociada con el tamaño de la segunda micro-aplicación y con la visualización de un segundo conjunto de información proporcionada a través de la segunda micro-aplicación, en el que el tamaño de la segunda micro-aplicación es diferente del primer tamaño de la primera micro-aplicación, al menos mientras se mantiene un contacto de la entrada táctil de arrastre en la pantalla táctil; y recibir (S113) un evento táctil adicional para salir del modo de edición de micro-aplicaciones y mostrar la segunda micro-aplicación en la segunda disposición de información, en el que la segunda disposición de información es diferente de la primera disposición de información, y en el que el primer conjunto de información y el segundo conjunto de información se actualizan basándose en la información recibida de un servidor.

Description

DESCRIPCIÓN
Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo
Antecedentes de la invención
Campo de la invención:
La presente invención se refiere a un terminal móvil. Más particularmente, aunque no exclusivamente, la presente invención se refiere a un terminal móvil y a un procedimiento de soporte de cambio de objeto para un terminal móvil que permite al usuario ajustar las propiedades de los objetos en la pantalla de forma fácil y conveniente.
Descripción de la técnica relacionada:
Los terminales móviles admiten funciones de llamada basadas en la movilidad. Debido a su conveniencia de uso y alta portabilidad, los terminales móviles han entrado en un uso generalizado. Para soportar las funciones del usuario, los terminales móviles pueden proporcionar varios mecanismos de entrada. Por ejemplo, si un terminal móvil proporciona una pantalla táctil que incluye un panel táctil y una unidad de pantalla, el usuario puede seleccionar una imagen en la unidad de pantalla haciendo un gesto en el panel táctil. Por ejemplo, el gesto puede incluir simplemente tocar un área del panel táctil. El terminal móvil puede generar un evento táctil correspondiente al gesto y controlar un programa de aplicación para una función de usuario de acuerdo con el evento táctil.
Para soportar una alta movilidad, los terminales móviles tienen un área de visualización pequeña en comparación con otros dispositivos. Por lo tanto, un terminal móvil puede tener que generar varios tipos de información para diferentes funciones en un área de visualización pequeña. Recientemente, en particular, los teléfonos inteligentes se han popularizado ampliamente. El usuario de un teléfono inteligente puede seleccionar uno de varios objetos que se muestran en la pantalla para ejecutar una función deseada. Sin embargo, para proporcionar varios tipos de información en una pantalla pequeña, un teléfono inteligente existente tiende a proporcionar solo objetos uniformemente estandarizados de tamaños fijos. Por lo tanto, un usuario puede experimentar dificultades para reconocer rápidamente las funciones asociadas con objetos individuales y la selección de un objeto deseado. Además, los objetos de salida tienden a tener imágenes fijas, lo que dificulta el suministro de información personalizada basándose en las preferencias del usuario. Estos problemas pueden volverse más graves para los objetos que generan información especializada, como los objetos de micro-aplicación.
El documento US 2011/061021 A1 desvela un terminal móvil que incluye una pantalla táctil configurada para mostrar al menos uno o más elementos de enlace de datos, la pantalla táctil recibe una entrada para una vista previa de un primer elemento de enlace de datos de al menos uno o más elementos de enlace de datos, y un controlador configurado para controlar la pantalla táctil para mostrar una primera ventana de visualización para mostrar los primeros datos asociados con el primer elemento de enlace de datos en una región predeterminada de la pantalla táctil después de recibir la entrada para la vista previa del primer elemento de enlace de datos, y configurado además para ajustar un tamaño para la primera ventana de visualización después de recibir una entrada asociada con una señal de ajuste de tamaño. Por ejemplo, la señal de ajuste de tamaño puede entrarse si un usuario realiza una distancia y dirección predeterminadas al tocar y arrastrar.
El documento US 2006/015820 A1 desvela un procedimiento y un aparato para la selección de ventana fija.
Sumario de la invención
Un objetivo de ciertas realizaciones de la invención es resolver, mitigar u obviar, al menos en parte, al menos uno de los problemas y/o desventajas asociados con la técnica anterior. Ciertas realizaciones se dirigen a proporcionar al menos una de las ventajas descritas a continuación.
Ciertos aspectos de la presente invención tienen por objeto abordar al menos los problemas y/o desventajas anteriormente mencionados y proporcionar al menos las ventajas descritas posteriormente. Por consiguiente, un aspecto de la presente invención proporciona un procedimiento de soporte de cambio de objeto y terminal móvil para un terminal móvil que permite a un usuario ajustar libremente las propiedades, tales como el tamaño y la disposición de información, de objetos en la pantalla de forma fácil y conveniente.
De acuerdo con un aspecto de la presente invención, se proporciona un procedimiento como se define en la reivindicación 1 independiente adjunta.
De acuerdo con otro aspecto de la presente invención, se proporciona un terminal móvil como se define en la reivindicación 6 independiente adjunta.
Las características preferidas de la invención se definen en las reivindicaciones dependientes adjuntas.
Se apreciará que en ciertas realizaciones, el primer objeto y el, o cada, segundo objeto están relacionados. En ciertas realizaciones, el segundo objeto, o cada uno, puede considerarse como una versión redimensionada o reformada del primer objeto, de modo que el primer y el segundo objeto muestren diferentes cantidades de contenido (por ejemplo, diferentes cantidades de texto, imágenes, etc.) y/o contenido en una disposición diferente. Por lo tanto, se puede cambiar el tamaño y/o la forma del objeto visualizado.
Otro aspecto de la divulgación proporciona un programa informático que comprende instrucciones dispuestas, cuando se ejecutan, para implementar un procedimiento y/o aparato de acuerdo con cualquiera de los aspectos descritos anteriormente. Un aspecto adicional proporciona almacenamiento legible por máquina que almacena dicho programa.
Otros aspectos, ventajas y características sobresalientes de la invención se harán evidentes para los expertos en la materia a partir de la siguiente descripción detallada, que, tomada en conjunto con los dibujos adjuntos, desvela realizaciones ilustrativas de la invención. Las realizaciones y/o ejemplos de la siguiente descripción detallada que no están cubiertos por las reivindicaciones adjuntas no se consideran parte de la presente invención.
Breve descripción de los dibujos
Los anteriores y otros aspectos y características y ventajas de ciertas realizaciones y aspectos ilustrativos de la presente invención serán más evidentes a partir de la siguiente descripción tomada en conjunto con los dibujos adjuntos, en los que:
la Figura 1 es un diagrama de bloques de un terminal móvil de acuerdo con una realización ejemplar de la presente invención;
la Figura 2 es un diagrama de bloques detallado de una unidad de control de un terminal móvil tal como, por ejemplo, el terminal móvil mostrado en la Figura 1 de acuerdo con una realización ejemplar de la presente invención;
la Figura 3 es un diagrama de flujo de un procedimiento de soporte de cambio de objeto para un terminal móvil de acuerdo con una realización ejemplar de la presente invención;
la Figura 4 es representaciones de pantalla que ilustran las operaciones de cambio de objeto de acuerdo con una realización ejemplar de la presente invención;
la Figura 5 es representaciones de pantalla que ilustran las operaciones de cambio de objeto de acuerdo con una realización ejemplar de la presente invención; y
la Figura 6 es una representación en pantalla que ilustra las operaciones de cambio de objeto de acuerdo con una realización ejemplar de la presente invención.
A lo largo de los dibujos, debe tenerse en cuenta que se usan números de referencia similares para representar elementos, características y estructuras iguales o similares.
Descripción detallada de realizaciones ilustrativas
Se proporciona la siguiente descripción con referencia a los dibujos adjuntos para ayudar en un entendimiento comprensivo de realizaciones ilustrativas de la invención según se define mediante las reivindicaciones. Incluye diversos detalles específicos para ayudar en esa comprensión, pero estos se han de considerar como meramente ilustrativos. Por consiguiente, los expertos en la materia en la técnica reconocerán que pueden realizarse diversos cambios y modificaciones de las realizaciones descritas en el presente documento sin alejarse del ámbito de la invención. Además, las descripciones de funciones y construcciones bien conocidas pueden omitirse para mayor claridad y concisión.
Los términos y palabras usados en la siguiente descripción y reivindicaciones no están limitados a los significados bibliográficos, sino que se usan simplemente por el inventor para posibilitar un entendimiento claro y consistente de la invención. Por consiguiente, debería ser evidente a los expertos en la materia que la siguiente descripción de realizaciones ilustrativas de la presente invención se proporciona para el fin de ilustración únicamente y no para el fin de limitación de la invención según se define mediante las reivindicaciones adjuntas.
Se ha de entender que las formas singulares "un", "una", "el" y "la" incluyen referentes plurales, salvo que el contexto dicte claramente otra cosa. Por lo tanto, por ejemplo, la referencia a "una superficie de componente" incluye la referencia a una o más de tales superficies.
La Figura 1 ilustra un diagrama de bloques de un terminal móvil de acuerdo con una realización ejemplar de la presente invención.
Con referencia a la Figura 1, el terminal 100 móvil puede incluir una unidad 110 de comunicaciones inalámbrica, una unidad 120 de entrada, una unidad 130 de procesamiento de audio, una unidad 140 de visualización, una unidad 150 de almacenamiento y una unidad 160 de control. En la siguiente descripción, señales de cambio de objeto pueden generarse por la unidad 140 de visualización que tiene una capacidad de pantalla táctil y/o la unidad 120 de entrada.
El terminal 100 móvil que tiene la configuración anterior puede mostrar una pantalla inactiva en la unidad 140 de visualización de acuerdo con la información de programación preestablecida después de encender el terminal 100 móvil. El terminal 100 móvil puede emitir varios objetos asociados con diferentes funciones en la pantalla inactiva. En particular, el terminal 100 móvil puede generar al menos un objeto 151 de micro-aplicación (por ejemplo, una pequeña aplicación de software que comprende código portátil destinado a una o más plataformas de software diferentes) en la unidad 140 de visualización. El terminal 100 móvil puede ajustar el tamaño o las propiedades del objeto 151 de micro-aplicación (que también puede describirse como una micro-aplicación de móvil) de acuerdo con la selección del usuario. Por ejemplo, el terminal 100 móvil puede soportar el ajuste del objeto 151 de micro-aplicación en la pantalla actual sin transición de página para el ajuste de pantalla, facilitando así el ajuste del objeto. Se proporciona una descripción de los componentes individuales del terminal 100 móvil en conexión con una función de soporte de cambio de objeto. La función de soporte de cambio de objeto se describe centrándose en objetos de micro-aplicación. Sin embargo, la función de soporte de cambio de objeto no se limita a objetos de micro-aplicación, y puede aplicarse a otros tipos de objetos (por ejemplo, pero no se limita a otros tipos de aplicaciones, objetos de datos, archivos, etc.) de acuerdo con la configuración o el diseño del usuario.
La unidad 110 de comunicaciones inalámbrica establece un canal de comunicación para la comunicación de voz, vídeo y datos bajo el control de la unidad 160 de control. Es decir, la unidad 110 de comunicaciones inalámbrica establece un canal de comunicación para una llamada de voz, una llamada de datos y una llamada de vídeo a un sistema de comunicación móvil. Para lograr esto, la unidad 110 de comunicaciones inalámbrica puede incluir un transmisor de radiofrecuencia para convertir de manera ascendente la frecuencia de una señal a transmitir y amplificar la señal, y un receptor de radiofrecuencia para amplificar con poco ruido una señal recibida y reducir la frecuencia de la señal recibida señal. En particular, la unidad 110 de comunicaciones inalámbrica puede establecer un canal de comunicación de datos con un servidor externo u otro terminal móvil, y recibir datos específicos en tiempo real, periódicamente o previa solicitud a través del canal de comunicación de datos. Los datos recibidos pueden aplicarse a un objeto 151 de microaplicación en la unidad 140 de visualización. Por ejemplo, la información meteorológica en tiempo real de un servidor externo puede aplicarse a un objeto 151 de micro-aplicación que maneja información meteorológica. Un mensaje recibido de un servidor externo u otro terminal móvil puede aplicarse a un objeto 151 de micro-aplicación que maneja mensajes. Aquí, un mensaje puede ser un mensaje de texto, mensaje multimedia o mensaje de correo electrónico. Las cotizaciones de acciones recibidas periódicamente desde un servidor externo pueden aplicarse a un objeto 151 de micro-aplicación que maneja información de la bolsa de valores. Cuando se reciben datos específicos a través de la unidad 110 de comunicaciones inalámbrica, la unidad 160 de control aplica al menos algunos de los datos recibidos al objeto de micro-aplicación correspondiente 151 en la unidad 140 de visualización, provocando una actualización de la información emitida por el objeto 151 de micro-aplicación.
La unidad 120 de entrada incluye una pluralidad de teclas alfanuméricas y de función para entrar información alfanumérica y para configurar diversas funciones. Las teclas de función pueden incluir teclas de dirección, laterales y de acceso directo asociadas con funciones específicas. La unidad 120 de entrada genera una señal clave correspondiente a la manipulación del usuario para establecer y controlar el funcionamiento del terminal 100 móvil, y envía la señal clave generada a la unidad 160 de control. La unidad 120 de entrada puede configurarse como un teclado que tiene múltiples teclas en un diseño Qwerty, 3*4 o 4*3. La unidad 120 de entrada también puede configurarse como un mapa clave de un diseño Qwerty, 3*4 o 4*3 que se muestra en la unidad 140 de visualización. Si el terminal 100 móvil es un terminal de tipo pantalla táctil completa, entonces la unidad 120 de entrada puede incluir solo teclas laterales formadas a los lados de la carcasa del terminal 100 móvil. La unidad 120 de entrada puede generar una señal de entrada para cambiar un objeto 151 de micro-aplicación. Por ejemplo, si el terminal 100 móvil incluye teclas de entrada preestablecidas (es decir, si el terminal no es un terminal de pantalla táctil completa), entonces el terminal 100 móvil puede emitir información que especifica al menos un punto de referencia para cambiar el objeto 151 de micro-aplicación. El terminal 100 móvil puede cambiar el objeto 151 de micro-aplicación basándose en la manipulación del usuario de la unidad de entrada. Por ejemplo, la unidad 120 de entrada puede generar una señal de entrada para seleccionar un punto de referencia de acuerdo con la manipulación del usuario y enviar la señal de entrada generada a la unidad 160 de control.
La unidad 130 de procesamiento de audio incluye un altavoz SPK para emitir datos de audio durante una llamada y emitir datos de audio contenidos en un mensaje recibido o almacenados en la unidad 150 de almacenamiento, y un micrófono MIC para recoger una señal de audio tal como una señal de voz durante una llamada. La unidad 130 de procesamiento de audio puede emitir una alerta audible que indica el ajuste de un objeto 151 de micro-aplicación de acuerdo con la configuración del usuario. Por ejemplo, cuando el usuario genera una señal de entrada para cambiar las propiedades de un objeto 151 de micro-aplicación visualizado en la pantalla inactiva, la unidad 130 de procesamiento de audio puede emitir una alerta audible que indica la transición a un modo de cambio de propiedad para el objeto 151 de micro-aplicación. Cuando se genera un gesto táctil o una señal de entrada durante el modo de cambio de propiedad para el objeto 151 de micro-aplicación, la unidad 130 de procesamiento de audio puede emitir una alerta audible correspondiente.
Si el terminal 100 móvil tiene una capacidad de pantalla táctil, la unidad de pantalla 140 puede incluir un panel de pantalla y un panel táctil. Por ejemplo, la unidad 140 de visualización puede configurarse de modo que el panel de visualización esté cubierto por el panel táctil. En consecuencia, el tamaño de la unidad 140 de visualización puede determinarse por el tamaño del panel táctil.
El panel de visualización muestra varios menús del terminal 100 móvil, la información introducida por el usuario y la información que debe proporcionarse al usuario. Por ejemplo, el panel de visualización puede emitir varias pantallas relacionadas con el uso del terminal 100 móvil, tales como una pantalla inactiva, una pantalla de menú, una pantalla de manejo de mensajes y una pantalla de manejo de llamadas. El panel de visualización puede configurarse utilizando dispositivos de pantalla de cristal líquido (LCD), diodos emisores de luz orgánicos (OLED) o similares. El panel de visualización puede colocarse encima o debajo del panel táctil. En particular, el panel de visualización puede generar al menos un objeto 151 de micro-aplicación de acuerdo con la configuración del usuario. El terminal 100 móvil puede proporcionar una lista de objetos 151 de micro-aplicación disponibles, y el usuario puede seleccionar un objeto 151 de micro-aplicación deseado que se va a visualizar en el panel de visualización. Las propiedades (por ejemplo, tamaño, forma, etc.) de un objeto 151 de micro-aplicación en el panel de visualización pueden cambiarse de acuerdo con un evento táctil que ocurre en el panel táctil. El panel de visualización puede generar una pantalla para cambiar las propiedades de un objeto 151 de micro-aplicación durante un modo de cambio de propiedad. Para conveniencia del usuario, la transición a un modo de cambio de propiedad para un objeto 151 de micro-aplicación se puede hacer en la pantalla actual sin transición explícita de pantalla. Al pasar a un modo de cambio de propiedad, la unidad 140 de visualización puede generar efectos visuales (por ejemplo, inversión de colores, resaltar un objeto de micro-aplicación seleccionado, sombrear regiones de pantalla distintas de un objeto de micro-aplicación seleccionado) bajo el control de la unidad 160 de control. La salida de los efectos visuales se describe con más detalle más adelante con referencia a las Figuras 4 a 6.
El panel táctil colocado en una parte inferior o superior del panel de visualización puede generar un evento táctil correspondiente a un gesto táctil realizado por el usuario y enviar el evento táctil a la unidad 160 de control. Se puede hacer un gesto táctil con un objeto táctil como, por ejemplo, el dedo de un usuario, un lápiz óptico o similar. Los elementos de detección del panel táctil están dispuestos en forma de matriz. Cuando se produce un evento táctil en el panel táctil, los elementos de detección envían información de ubicación y tipo del evento táctil a la unidad 160 de control. El panel táctil puede generar un evento táctil para cambiar las propiedades de un objeto 151 de microaplicación en una región del panel de visualización en la que el objeto 151 de micro-aplicación se visualiza de acuerdo con un gesto del usuario. Las funciones del panel de visualización para tocar eventos se describen con más detalle más adelante con referencia a los dibujos.
La unidad 150 de almacenamiento puede almacenar programas de aplicación que realizan funciones relacionadas con realizaciones ejemplares de la presente invención, y mapas de teclas y mapas de menú para el funcionamiento adecuado de la unidad 140 de visualización. Los mapas de teclas pueden corresponder a varios diseños de teclado, incluidos los diseños 3*4 y Qwerty, y pueden incluir un mapa de teclas de control para controlar la ejecución de un programa de aplicación. Los mapas de menú pueden incluir un mapa de menú para controlar la ejecución de un programa de aplicación. La unidad 150 de almacenamiento puede incluir una región de programa y una región de datos.
La región de programa puede almacenar un sistema operativo (SO) para arrancar y operar el terminal 100 móvil, programas de aplicación para la reproducción de datos de música, programas de aplicación para soportar funciones relacionadas con llamadas, programas de aplicación tales como un navegador web para acceder a servidores de Internet, y programas de aplicación para ver imágenes fijas e imágenes en movimiento. La región del programa también puede almacenar un programa de soporte de cambio de objeto de micro-aplicación.
El programa de soporte de cambio de objeto de micro-aplicación incluye rutinas para ajustar propiedades (por ejemplo, tamaño, disposición de información y detalles de información) de un objeto 151 de micro-aplicación en la unidad 140 de visualización. Específicamente, el programa de soporte de cambio de objeto de micro-aplicación puede incluir: una rutina de determinación para la transición a un modo de cambio de propiedad para un objeto de micro-aplicación; una rutina de cambio para recuperar otro objeto de micro-aplicación, que es idéntico en función pero diferente en tipo del objeto de micro-aplicación, de la unidad 150 de almacenamiento y para mostrar el objeto de micro-aplicación recuperado en la unidad 140 de visualización en respuesta a la ocurrencia de un evento táctil en el modo de cambio de propiedad; y una rutina para hacer que el objeto de micro-aplicación visualizado actualmente se visualice continuamente en la unidad 140 de visualización después de la generación de una señal que indica la finalización del modo de cambio de propiedad. La rutina de determinación determina si se debe pasar al modo de cambio de propiedad en función de un evento táctil o una señal de entrada determinados. Como ejemplo, el evento táctil puede corresponder a un gesto de un toque prolongado (por ejemplo, la unidad de control puede distinguir entre los tipos de toques en función de la cantidad de tiempo que se realiza un toque) o un número predefinido de toques en el panel táctil mostrando un objeto 151 de micro-aplicación. La rutina de cambio selecciona uno de los múltiples objetos de microaplicación que son idénticos en función pero de tipo diferente de acuerdo con un evento táctil del usuario, y envía el objeto de micro-aplicación seleccionado a la unidad 140 de visualización. Los objetos de micro-aplicación pueden clasificarse por función relacionada, por ejemplo, con el clima, acciones, mensaje, servicio de limpieza y noticias. Los objetos de micro-aplicación que pertenecen a la misma clase funcional pueden tener diferentes características para mostrar. Por ejemplo, con respecto a las características de visualización, los objetos de micro-aplicación del clima se pueden mostrar en tamaños de 1 x 2, 2 x 2 y 4 x 2. Los objetos de micro-aplicación de diferentes tipos pueden diferir en tamaño, y los detalles de información correspondientes y la disposición de la información de los objetos de microaplicación pueden diferir de acuerdo con el tamaño. Esto se describe con más detalle con referencia a las Figuras 4 a 6.
La región de datos es un área que almacena datos generados durante el uso del terminal 100 móvil, y puede almacenar datos de la agenda telefónica, objetos para funciones de micro-aplicaciones y otro contenido. La región de datos puede almacenar entradas de usuario ingresadas a través del panel táctil. En particular, la región de datos puede almacenar varios objetos de micro-aplicación que difieren en función y tipo.
La unidad 160 de control controla el suministro de energía a los componentes del terminal 100 móvil para la inicialización. Después de la inicialización, la unidad 160 de control verifica si el usuario invoca una función de cambio de propiedad para un objeto 151 de micro-aplicación. Cuando se invoca la función de cambio de propiedad, la unidad 160 de control pasa al modo de cambio de propiedad y controla el procesamiento de señales para cambiar las propiedades del objeto 151 de micro-aplicación en el modo de cambio de propiedad. Para cambiar las propiedades del objeto 151 de micro-aplicación, la unidad 160 de control puede manejar la visualización de un marco guía para guiar los cambios de las formas de los objetos de micro-aplicación, manejar la salida de varios tipos de objetos de micro-aplicación de acuerdo con una señal de entrada o evento táctil, y generar un objeto de micro-aplicación de un tipo seleccionado en la unidad 140 de visualización al finalizar el modo de cambio de propiedad. El marco guía incluye una o más regiones superpuestas que corresponden respectivamente a objetos que son idénticos en función pero difieren en tipo. Como ejemplo, la unidad 160 de control puede configurarse como se describe a continuación con referencia a la Figura 2.
La Figura 2 es un diagrama de bloques detallado de una unidad 160 de control del terminal 100 móvil de acuerdo con una realización ejemplar de la presente invención. El funcionamiento de la unidad 160 de control se describe centrándose en los eventos táctiles como señales de entrada. Sin embargo, las realizaciones ejemplares no se limitan a las mismas o por lo tanto. Es decir, para cambiar las propiedades de los objetos de micro-aplicación, la unidad 160 de control puede funcionar de acuerdo no solo con los eventos táctiles sino también con las señales de entrada de diversos medios de entrada tales como, por ejemplo, la unidad 120 de entrada.
Con referencia a la Figura 2, la unidad 160 de control puede incluir un recopilador 161 de eventos táctiles, un productor 163 de marcos guías y un emisor 165 de objetos de micro-aplicación.
El recopilador 161 de eventos táctiles está configurado para recopilar eventos táctiles que ocurren en el panel táctil. En una realización ejemplar, el recopilador 161 de eventos táctiles recopila eventos táctiles para cambiar las propiedades de un objeto 151 de micro-aplicación. Específicamente, cuando se recopila un evento táctil, el recopilador 161 de eventos táctiles determina si el evento táctil recopilado está relacionado con el cambio de propiedad de un objeto 151 de micro-aplicación. Si el evento táctil recopilado no está relacionado con el cambio de propiedad de un objeto 151 de micro-aplicación, entonces el recopilador 161 de eventos táctiles puede controlar el rendimiento de una operación indicada por el evento táctil recopilado. Si el evento táctil recopilado está relacionado con el cambio de propiedad de un objeto 151 de micro-aplicación, entonces el recopilador 161 de eventos táctiles puede reenviar el evento táctil recopilado al productor 163 de marcos guías. Un evento táctil relacionado con el cambio de propiedad de un objeto 151 de micro-aplicación puede corresponder a un gesto de toque prolongado (por ejemplo, un toque que tiene una duración mayor o igual a un valor umbral predeterminado, que también puede describirse como un período umbral de tiempo) o un número dado de toques en el panel táctil que muestra el objeto 151 de micro-aplicación, o puede corresponder a un gesto multitáctil o un gesto de selección de menú.
Al recibir un evento táctil relacionado con el cambio de propiedad de un objeto 151 de micro-aplicación desde el recopilador 161 de eventos táctiles, el productor 163 de marcos guías controla una operación para entrar en un modo de cambio de propiedad. El productor 163 de marcos guías puede generar efectos visuales que indican la transición al modo de cambio de propiedad. Por ejemplo, el productor 163 de marcos guías puede resaltar el objeto 151 de microaplicación seleccionado solamente y sombrear regiones de pantalla distintas del objeto 151 de micro-aplicación seleccionado. En el modo de cambio de propiedad, el productor 163 de marcos guías puede generar un marco guía para acomodar objetos de micro-aplicación que son idénticos en función pero de tipo diferente del objeto 151 de microaplicación seleccionado. Por ejemplo, el marco guía puede salir alrededor del objeto 151 de micro-aplicación visualizado en la unidad 140 de visualización. El marco guía puede incluir una o más regiones delimitadas por, por ejemplo, líneas punteadas. En cuanto a un objeto 151 de micro-aplicación seleccionado, el número de regiones demarcadas en el marco de la guía corresponde al número de objetos de micro-aplicación registrados que son idénticos en función pero difieren en tipo. Por ejemplo, cuando tres objetos de micro-aplicación de diferentes tipos se registran en el objeto 151 de micro-aplicación, el marco guía para el objeto 151 de micro-aplicación puede incluir tres regiones, que pueden superponerse o no. Los puntos de referencia para seleccionar los objetos de micro-aplicación correspondientes pueden marcarse en regiones del marco guía.
En un estado en el que el productor 163 de marcos guías emite un marco guía para un objeto 151 de micro-aplicación en la unidad 140 de visualización, si se selecciona una región del marco guía, entonces el emisor 165 de objetos de micro-aplicación recupera una imagen de objeto de micro-aplicación asociada con la región seleccionada. A partir de entonces, si se introduce una señal de entrada para el cambio de objeto de micro-aplicación, entonces el emisor 165 de objetos de micro-aplicación reemplaza el objeto 151 de micro-aplicación en la unidad 140 de visualización con la imagen del objeto de micro-aplicación recuperada, y controla una operación para terminar el modo de cambio de propiedad.
Como se ha descrito anteriormente, el terminal 100 móvil permite al usuario cambiar las propiedades de un objeto 151 de micro-aplicación de forma conveniente y rápida usando un esquema de entrada simple, y genera múltiples objetos de micro-aplicación de la misma categoría funcional en diferentes formas durante el proceso de cambio. Por lo tanto, el usuario puede acceder a la información en varias formas.
La Figura 3 es un diagrama de flujo de un procedimiento de soporte de cambio de objeto de micro-aplicación para el terminal móvil de acuerdo con una realización ejemplar de la presente invención.
Con referencia a la Figura 3, en el procedimiento de soporte de cambio de objeto, al encenderse, la unidad 160 de control del terminal 100 móvil suministra energía a componentes individuales, realiza la inicialización y muestra una pantalla inactiva de acuerdo con la información de programación preestablecida en la etapa S101.
Cuando se genera una señal de entrada o un evento táctil, la unidad 160 de control determina si la señal de entrada o el evento táctil están relacionado con el cambio de un objeto 151 de micro-aplicación en la etapa S103. Si la señal de entrada o el evento táctil no está relacionado con el cambio de un objeto 151 de micro-aplicación, entonces la unidad 160 de control puede realizar una función de usuario indicada por la señal de entrada o el evento táctil en la etapa S105. Por ejemplo, la unidad 160 de control puede controlar una operación para realizar una función relacionada con el manejo de llamadas, búsqueda de archivos, acceso a Internet, captura de imágenes o recepción de difusión.
Si la señal de entrada o el evento táctil está relacionado con el cambio de un objeto 151 de micro-aplicación, la unidad 160 de control controla una operación para cambiar el objeto 151 de micro-aplicación en la etapa S107. Más específicamente, en respuesta a una señal para cambiar un objeto 151 de micro-aplicación, la unidad 160 de control pasa a un modo de cambio de propiedad para el objeto 151 de micro-aplicación seleccionado por la señal. En el modo de cambio de propiedad, la unidad 160 de control identifica un número y tamaño de objetos de micro-aplicación que son idénticos en función pero de tipo diferente del objeto 151 de micro-aplicación de la unidad 150 de almacenamiento. La unidad 160 de control incluye un marco guía basándose en el número y el tamaño identificados de los objetos de micro-aplicación. La unidad 160 de control emite el marco guía alrededor del objeto 151 de micro-aplicación en la unidad 140 de visualización. Como ejemplo, el marco guía puede incluir puntos de referencia que facilitan la selección de un nuevo objeto de micro-aplicación para reemplazar el objeto 151 de micro-aplicación actual.
Posteriormente, la unidad 160 de control verifica si se entra una señal de entrada para seleccionar un objeto de microaplicación desde el marco guía en la etapa S109. Si no se introduce una señal de entrada para seleccionar un objeto de micro-aplicación, entonces la unidad 160 de control vuelve a la etapa S103 y puede mantener la pantalla del objeto de micro-aplicación actual para continuar el procesamiento.
Si se selecciona un objeto de micro-aplicación del marco guía en respuesta a la ocurrencia de un evento táctil en un punto de referencia del marco guía, entonces la unidad 160 de control emite el objeto de micro-aplicación asociado con el punto de referencia en la unidad 140 de visualización en la etapa S111. La unidad 160 de control puede generar el objeto de micro-aplicación seleccionado como una imagen de vista previa, y nuevamente generar la pantalla inactiva que incluye el objeto de micro-aplicación seleccionado después de completar la selección del usuario. En la pantalla inactiva, la unidad 160 de control puede reemplazar el objeto 151 de micro-aplicación con el objeto de micro-aplicación seleccionado sin una transición de pantalla.
Después del cambio de objeto de micro-aplicación, la unidad 160 de control verifica si se genera una señal de entrada para la terminación en la etapa S113. Si no se genera una señal de entrada para la terminación, entonces la unidad 160 de control vuelve a la etapa S101 y muestra la pantalla inactiva actualizada en la etapa Sill.
La Figura 4 es representaciones de pantalla que ilustran operaciones de cambio de objeto de acuerdo con una realización ejemplar de la presente invención.
Con referencia a la Figura 4, al encenderse, el terminal 100 móvil puede mostrar una pantalla inactiva en la unidad 140 de visualización de acuerdo con la información de programación preestablecida como se ilustra en la pantalla 401. Por ejemplo, como se ilustra en la pantalla 401, la unidad 160 de control puede mostrar una pantalla inactiva que incluye un objeto de micro-aplicación de reloj 230 y un objeto 200 de micro-aplicación de mensaje de un primer tipo en la unidad 140 de visualización. Como ejemplo, el objeto de micro-aplicación de reloj 230 indica la hora actual y puede cambiar en términos de forma o imagen con el paso del tiempo. El objeto 200 de micro-aplicación de mensaje del primer tipo tiene un tamaño fijo y se usa para generar el texto del mensaje recibido en un formato adecuado para el tamaño. Por ejemplo, en la pantalla 401, el objeto 200 de micro-aplicación de mensaje del primer tipo tiene un título "Mensaje" e información de identificación del remitente "Suji" y "Jim". Por ejemplo, la información de identificación del remitente puede ser una cadena de caracteres si el remitente correspondiente está registrado en la agenda telefónica, o un número de teléfono u otra forma de indicios de lo contrario. El objeto 200 de micro-aplicación de mensaje del primer tipo puede tener una barra deslizante en una porción dada (por ejemplo, en el borde derecho del objeto de micro-aplicación) para indicar la presencia de mensajes recibidos adicionales.
Cuando se produce un evento táctil prolongado (por ejemplo, más largo que un umbral de tiempo) para el cambio de objeto de micro-aplicación en el objeto 200 de micro-aplicación de mensaje del primer tipo, se puede generar un marco 202 guía para el cambio de objeto de micro-aplicación como se ilustra en la pantalla 402. Como se ilustra en la pantalla 402, un evento táctil largo puede usarse como una señal para el cambio de objeto de micro-aplicación. Sin embargo, las realizaciones ejemplares de la presente invención no están limitadas a las mismas. Por ejemplo, una señal para el cambio de objeto de micro-aplicación puede ser un evento preestablecido, como un evento de toque largo, un evento de un número dado de toques, un evento multitáctil o similar. En respuesta a la señal para el cambio de objeto de micro-aplicación, la unidad 160 de control identifica el número y el tamaño de los objetos de micro-aplicación registrados que son idénticos en función pero de tipo diferente del objeto 200 de micro-aplicación de mensaje del primer tipo, y genera un marco 202 guía correspondiente al número y tamaño identificados de objetos de microaplicación registrados como se ilustra en la pantalla 402. Por ejemplo, cuando se registran dos objetos de microaplicación de mensaje de diferentes tipos en cuanto al objeto 200 de micro-aplicación de mensaje del primer tipo, el marco 202 guía puede tener dos regiones demarcadas. Por ejemplo, el marco 202 guía también puede tener dos puntos 204 de referencia y 205 correspondientes a los dos objetos de micro-aplicación de mensaje de diferentes tipos. Para indicar un modo de cambio de objeto de micro-aplicación, la unidad 160 de control puede producir efectos visuales. Por ejemplo, otros objetos de micro-aplicación (por ejemplo, el objeto de micro-aplicación de reloj 230 ilustrado en la pantalla 402) pueden estar sombreados. Para comodidad del usuario y cambio rápido de objeto de micro-aplicación, la unidad 160 de control puede emitir el marco 202 guía alrededor de una región 201 en la que se ha producido el evento de contacto en la pantalla 401. Por ejemplo, la unidad 160 de control puede emitir el marco 202 guía de modo que el punto 203 central del marco 202 guía pueda corresponder a la región 201 en la que se ha producido el evento de contacto en la pantalla 401. Como resultado, al hacer un solo gesto (por ejemplo, un evento táctil largo) en la pantalla 401, el usuario puede ver el marco 202 guía ilustrado en la pantalla 402.
Cuando el usuario genera una señal para seleccionar un objeto de micro-aplicación de mensaje de tipo A en la pantalla 402, la unidad 160 de control puede emitir el objeto 210 de micro-aplicación de mensaje de tipo A en la unidad 140 de visualización como se ilustra en la pantalla 403. Para seleccionar un objeto de micro-aplicación de mensaje de tipo A, en la pantalla 402, el usuario puede entrar un evento táctil para seleccionar el punto 204 de referencia del marco 202 guía asociado con el objeto 210 de micro-aplicación de mensaje de tipo A. O, para seleccionar el objeto 210 de microaplicación de mensaje de tipo A, el usuario puede entrar un evento de contacto en el punto 203 central y arrastrarlo en una dirección 'A' al punto 204 de referencia mientras se mantiene el contacto. En respuesta al gesto de usuario anterior, la unidad 160 de control puede emitir el objeto 210 de micro-aplicación de mensaje de tipo A en la unidad 140 de visualización como se ilustra en la pantalla 403. A diferencia del objeto 200 de micro-aplicación de mensaje del primer tipo, el objeto 210 de micro-aplicación de mensaje de tipo A tiene un área más grande extendida en una dirección y exhibe una mayor cantidad de información. Es decir, el objeto 210 de micro-aplicación de mensaje del tipo A puede exhibir no solo información de identificación del remitente sino también una parte del texto del mensaje en la imagen del objeto. Además, si el usuario arrastra más de una distancia preestablecida desde el punto 203 central hacia el punto 204 de referencia o 205, entonces la unidad 160 de control puede emitir un objeto de micro-aplicación de mensaje del tipo correspondiente en la unidad 140 de visualización. En otras palabras, la unidad 160 de control puede generar un objeto de micro-aplicación de mensaje de un tipo particular antes de que el arrastre del usuario alcance el punto de referencia correspondiente desde el punto 203 central.
De manera similar, cuando el usuario genera una señal para seleccionar un objeto de micro-aplicación de mensaje de tipo B en la pantalla 402, la unidad 160 de control puede emitir el objeto 220 de micro-aplicación de mensaje de tipo B en la unidad 140 de visualización como se ilustra en la pantalla 404. Para seleccionar un objeto de micro-aplicación de mensaje de tipo B, en la pantalla 402, el usuario puede entrar un evento táctil para seleccionar el punto 205 de referencia del marco 202 guía asociado con el objeto 220 de micro-aplicación de mensaje de tipo B. O, para seleccionar el mensaje de micro-aplicación de objeto 220 de tipo B, el usuario puede entrar un evento de contacto en el punto 203 central y arrastrarlo en una dirección de 'B' al punto 205 de referencia mientras mantiene contacto. En respuesta al gesto de usuario anterior, la unidad 160 de control puede emitir el objeto 220 de micro-aplicación de mensaje de tipo B en la unidad 140 de visualización como se ilustra en la pantalla 404. A diferencia del objeto 200 de micro-aplicación de mensaje del primer tipo o el objeto 210 de micro-aplicación de mensaje de tipo A, el objeto 220 de micro-aplicación de mensaje de tipo B tiene un área de imagen de objeto más grande y exhibe una mayor cantidad de información en el área de imagen de objeto. Por ejemplo, el objeto 220 de micro-aplicación de mensaje del tipo B puede exhibir información de identificación del remitente, datos de imagen del remitente almacenados en la agenda telefónica y alguna parte del texto del mensaje.
Cuando el usuario selecciona el objeto 210 de micro-aplicación de mensaje de tipo A en la pantalla 402 entrando un evento táctil en el punto 204 de referencia y manteniendo el contacto (por ejemplo, manteniendo el objeto táctil en un estado de contacto en relación con el panel táctil), la unidad 160 de control puede mostrar el objeto 210 de microaplicación de mensaje de tipo A como una imagen de vista previa en la pantalla 403. De forma similar, cuando el usuario selecciona el objeto 220 de micro-aplicación de mensaje de tipo B en la pantalla 402 entrando un evento táctil en el punto 205 de referencia y manteniendo el contacto (por ejemplo, manteniendo el objeto táctil en un estado de contacto en relación con el panel táctil), la unidad 160 de control puede generar el objeto 220 de micro-aplicación de mensaje de tipo B como una imagen de vista previa en la pantalla 404.
Posteriormente, cuando el usuario entra un evento de liberación táctil en la pantalla 403 o la pantalla 404, la unidad 160 de control puede reemplazar el objeto 200 de la micro-aplicación de mensaje del primer tipo en la unidad 140 de visualización con el objeto 210 de la micro-aplicación de mensaje del tipo A o el objeto 220 de micro-aplicación de mensaje de tipo B como en la pantalla 405 o pantalla 406, respectivamente. Por lo tanto, en la unidad 140 de visualización, la salida de un objeto de micro-aplicación diferente y el cambio de propiedad de un objeto de microaplicación pueden manejarse en la misma capa.
En la pantalla 405, para reemplazar el objeto 210 de micro-aplicación de mensaje de tipo A con un objeto de microaplicación de mensaje diferente como el objeto 200 de micro-aplicación de mensaje del primer tipo o el objeto 220 de micro-aplicación de mensaje de tipo B, el usuario puede generar una señal de entrada para entrar un modo de cambio de objeto de micro-aplicación. A continuación, la unidad 160 de control puede generar un marco 202 guía alrededor del objeto 210 de micro-aplicación de mensaje de tipo A como se ilustra en la pantalla 402. Cuando el usuario selecciona un punto de referencia deseado del marco 202 guía arrastrando o tocando, la unidad 160 de control puede emitir un objeto de micro-aplicación de mensaje diferente asociado con el punto de referencia seleccionado. De manera similar, en la pantalla 406, el usuario puede reemplazar el objeto 220 de micro-aplicación de mensaje de tipo B con un objeto de micro-aplicación de mensaje diferente realizando las acciones descritas anteriormente. Debido a que el marco 202 guía se emite dentro de la imagen de visualización del objeto 220 de micro-aplicación de mensaje de tipo B, la unidad 160 de control puede sombrear el objeto 220 de micro-aplicación de mensaje de tipo B de modo que el usuario pueda ver claramente el marco 202 guía. El manejo de la imagen del objeto de esta manera también se puede aplicar para cambiar los procedimientos de otros objetos de micro-aplicación.
En la descripción anterior, los eventos táctiles se usan como una señal para el cambio de objeto de micro-aplicación. La unidad 120 de entrada también puede usarse para generar una señal para el cambio de objeto de micro-aplicación. Para una fácil selección de un punto de referencia deseado a través de la unidad 120 de entrada, se pueden asignar índices fácilmente introducibles a los puntos de referencia asociados con objetos de micro-aplicación de diferentes tipos. La unidad 150 de almacenamiento puede almacenar previamente imágenes de objetos y formatos de visualización para objetos de micro-aplicación de mensaje que son idénticos en función pero difieren en tipo tal como el objeto 200 de micro-aplicación de mensaje del primer tipo, el objeto 210 de micro-aplicación de mensaje de tipo A y el objeto 220 de micro-aplicación de mensaje de tipo B.
Como se ha descrito anteriormente, el procedimiento de soporte de cambio de objeto de realizaciones ejemplares de la presente invención permite al usuario cambiar fácilmente el tamaño y la disposición de información de un objeto. El procedimiento utiliza un marco 202 guía variable para generar objetos de micro-aplicación como imágenes de vista previa para mejorar así la visibilidad de un objeto de micro-aplicación del tipo deseado, que después se muestra fácilmente en la pantalla en respuesta a una acción simple como un evento de liberación táctil.
La Figura 5 es representaciones de pantalla que ilustran operaciones de cambio de objeto de micro-aplicación de acuerdo con una realización ejemplar de la presente invención.
Con referencia a la Figura 5, la unidad 160 de control del terminal 100 móvil puede emitir un objeto 300 de microaplicación del clima de tipo básico en la unidad 140 de visualización de acuerdo con las configuraciones del usuario como en la pantalla 501. Si el usuario genera una señal de entrada en la pantalla 501 para cambiar el objeto 300 de micro-aplicación meteorológico del tipo básico en uno de los objetos 310, 320, 330 y 340 de micro-aplicación meteorológicos de diferentes tipos, entonces la unidad 160 de control puede emitir un marco 302 guía. El marco 302 guía está asociado con objetos de micro-aplicación meteorológicos de diferentes tipos, y está configurado basándose en el tamaño de visualización, orientación de visualización, contenido de información y disposición de información de los objetos de micro-aplicación meteorológicos. Por ejemplo, como se muestra en la pantalla 501, si hay cinco objetos de micro-aplicación meteorológicos de diferentes tipos, entonces el marco 302 guía puede configurarse para incluir cinco regiones demarcadas y tener cinco puntos C, C1, C2, C3 y C4 de referencia. Los puntos C, C1, C2, C3 y C4 de referencia pueden asociarse respectivamente con los objetos de micro-aplicación meteorológicos de diferentes tipos.
Por ejemplo, si el usuario genera una señal de entrada para seleccionar un primer punto C1 de referencia asociado con el objeto 310 de micro-aplicación meteorológico del primer tipo en la pantalla 501, entonces la unidad 160 de control puede emitir el objeto 310 de micro-aplicación meteorológico del primer tipo en el unidad 140 de visualización como se ilustra en la pantalla 503. Dependiendo del diseño, la unidad 160 de control puede mostrar el objeto 310 de micro-aplicación meteorológico del primer tipo como una imagen de vista previa y mostrarlo después en la pantalla en respuesta a una señal adicional. En contraste con el objeto 300 de micro-aplicación meteorológico del tipo básico que exhibe información relacionada con la temperatura actual, y las temperaturas altas y bajas para el día, el objeto 310 de micro-aplicación meteorológico del primer tipo puede exhibir información relacionada con la temperatura actual, alta y baja temperaturas para el día, ubicación actual, fuente de información y hora actual.
Si el usuario genera una señal de entrada para seleccionar un segundo punto C2 de referencia asociado con el objeto 320 de micro-aplicación meteorológico del segundo tipo en la pantalla 501, entonces la unidad 160 de control puede emitir el objeto 320 de micro-aplicación meteorológico del segundo tipo en la unidad 140 de visualización como se ilustra en la pantalla 505. El objeto 320 de micro-aplicación meteorológico del segundo tipo puede exhibir información relacionada con la temperatura actual, temperaturas altas y bajas del día, una imagen y texto que representa el clima actual, la ubicación actual, la fuente de información y la hora actual. Si el usuario genera una señal de entrada para seleccionar un tercer punto C3 de referencia asociado con el objeto 330 de micro-aplicación meteorológico del tercer tipo en la pantalla 501, entonces la unidad 160 de control puede emitir el objeto 330 de micro-aplicación meteorológico del tercer tipo en la unidad 140 de visualización como se ilustra en la pantalla 507. El objeto 330 de micro-aplicación meteorológico del tercer tipo puede exhibir información relacionada con la temperatura actual, temperaturas altas y bajas para el día, una imagen y texto que representa el clima actual, la ubicación actual, la fuente de información y la hora actual. Finalmente, si el usuario genera una señal de entrada para seleccionar un cuarto punto C4 de referencia asociado con el objeto 340 de micro-aplicación meteorológico del cuarto tipo en la pantalla 501, entonces la unidad 160 de control puede emitir el objeto 340 de micro-aplicación meteorológico del cuarto tipo en la unidad 140 de visualización como se ilustra en la pantalla 509. El objeto 340 de micro-aplicación meteorológico del cuarto tipo puede exhibir información relacionada con la temperatura actual, temperaturas altas y bajas del día, una imagen y texto que representa el clima actual, el pronóstico del tiempo semanal, la ubicación actual, la fuente de información y la hora actual.
Como se ha descrito anteriormente, el terminal 100 móvil puede almacenar previamente varios tipos de objetos de micro-aplicación en cuanto a una función particular y generar un marco guía en la pantalla en la que se muestra un objeto de micro-aplicación de acuerdo con una solicitud del usuario. Después, cuando el usuario selecciona un punto de referencia del marco guía asociado con un objeto de micro-aplicación de un tipo diferente, el terminal 100 móvil emite el objeto de micro-aplicación de un tipo diferente asociado con el punto de referencia seleccionado, lo que facilita el cambio fácil de objeto de micro-aplicación. Como ejemplo, los objetos de micro-aplicación de diferentes tipos exhiben diversas formas de información que difieren de acuerdo con al menos uno de tamaño de pantalla, orientación de pantalla, contenido de información y disposición de información. Por lo tanto, el usuario puede cambiar fácilmente un objeto de micro-aplicación de un tipo dado en un objeto de micro-aplicación de otro tipo que tenga información en un tamaño adecuado. En la descripción anterior, los puntos de referencia se utilizan para seleccionar un objeto de microaplicación de un tipo diferente. Sin embargo, las realizaciones ejemplares de la presente invención no están limitadas a las mismas. Por ejemplo, la generación de un evento táctil en una de las regiones delimitadas del marco guía puede hacer que la unidad 160 de control muestre un objeto de micro-aplicación asociado con la región tocada como una imagen de vista previa o muestre lo mismo en la pantalla. En un estado en el que se muestra uno de los objetos 310, 320, 330 y 340 de micro-aplicación meteorológicos del primer al cuarto tipos, si se genera una señal de entrada para el cambio del objeto de micro-aplicación, entonces la unidad 160 de control puede emitir el marco 302 guía en la unidad 140 de visualización.
Anteriormente, los objetos de micro-aplicación se utilizan como objetos. Sin embargo, las realizaciones ejemplares de la presente invención no están limitadas a las mismas. Por ejemplo, los objetos pueden corresponder a archivos de imagen. Más específicamente, como se muestra en la Figura 6, un objeto puede ser un objeto de marco de imagen. En un modo de cambio de objeto para el objeto de marco de imagen, la unidad 160 de control puede generar un marco 402 guía basándose en diferentes archivos de imagen que están incluidos en la misma carpeta en la que está incluido el archivo de imagen visualizado actualmente en el objeto de marco de imagen. La unidad 160 de control puede emitir el marco 402 guía generado alrededor del objeto de marco de imagen en la unidad 140 de visualización. Si el usuario genera una señal de entrada para seleccionar uno de los diferentes archivos de imagen utilizando el marco 402 guía, entonces la unidad 160 de control puede emitir el archivo de imagen seleccionado como una imagen del objeto de marco de imagen. La unidad 160 de control puede generar un archivo de imagen seleccionado como una imagen de vista previa de acuerdo con una ubicación o tipo de evento táctil generado en el marco 402 guía. Para facilitar la selección de uno de los archivos de imagen del mismo tamaño, la unidad 160 de control puede disponer múltiples puntos de referencia en una región del marco 402 guía. Por ejemplo, suponga que están presentes cuatro archivos de imagen que tienen un tamaño de 2 x 2 y un archivo de imagen de un tamaño diferente. La unidad 160 de control puede asignar cuatro puntos de referencia a una región del marco 402 guía y un punto de referencia a otra región del mismo. Aquí, cuando la región para tamaño 2 x 2 está demarcada por líneas punteadas que forman un rectángulo, los puntos de referencia pueden colocarse en vértices o líneas punteadas. Si el usuario selecciona uno de los puntos de referencia, entonces la unidad 160 de control puede generar un archivo de imagen de tamaño 2 x 2 asociado con el punto de referencia seleccionado como una imagen de vista previa o mostrarlo directamente en la unidad 140 de visualización de acuerdo con el diseño. En la descripción anterior, la unidad de tamaño puede corresponder a varias decenas o cientos de píxeles, centímetros, pulgadas o similares.
En la descripción anterior, se proporciona un marco guía. Sin embargo, las realizaciones ejemplares de la presente invención no están limitadas a las mismas. Por ejemplo, en respuesta a una solicitud para cambiar un objeto actual en la unidad 140 de visualización en otro objeto, la unidad 160 de control puede generar un objeto de un tipo diferente correspondiente a un evento táctil aplicado al objeto actual (por ejemplo, distancia de arrastre y dirección desde el objeto actual) como una imagen de vista previa y mostrar después el objeto del tipo diferente en la unidad 140 de visualización de acuerdo con una solicitud del usuario, o puede mostrar directamente el objeto del tipo diferente en la unidad 140 de visualización.
En la descripción anterior, un objeto de un tipo dado se transforma en un objeto de otro tipo. Sin embargo, de acuerdo con una solicitud del usuario, la unidad 160 de control puede emitir un marco guía después de emitir un objeto e inmediatamente mostrar el objeto emitido anteriormente en la pantalla. Por lo tanto, después de que se emite un objeto, se puede generar un marco guía para cambiar directamente el objeto de salida anterior a un objeto de otro tipo; o bien, los objetos de diferentes tipos pueden emitirse de acuerdo con una solicitud del usuario después de emitir un marco guía. Como alternativa, como se ha descrito anteriormente, un objeto de un tipo dado puede cambiarse en un objeto de otro tipo de acuerdo con los tipos y direcciones de las señales de entrada sin emitir un marco guía.
Aunque no se muestra, el terminal 100 móvil puede incluir además al menos uno de un módulo de comunicación de corto alcance para comunicación de corto alcance, un módulo de cámara para capturar imágenes fijas o en movimiento de un objeto objetivo, una interfaz de comunicación de datos basándose en cable e inalámbrica comunicación, un módulo de comunicación de Internet para acceso a Internet y un módulo de recepción de transmisión digital para reproducir transmisiones digitales. Con la tendencia de convergencia digital, debería ser evidente para los expertos en la materia que el terminal 100 móvil puede incluir además una unidad comparable a las unidades descritas anteriormente, y una unidad de las mismas puede retirarse o reemplazarse por otra unidad.
El terminal 100 móvil de la presente invención puede ser cualquier dispositivo capaz de mostrar objetos en la pantalla.
Por ejemplo, el terminal 100 móvil puede ser cualquier dispositivo de información y comunicación o dispositivo multimedia, como un terminal de comunicación móvil basado en protocolos de comunicación que soportan diversos sistemas de comunicación, un reproductor multimedia portátil (PMP), un receptor de transmisión digital, un asistente digital personal (PDA), un reproductor de música como un reproductor de MP3, una consola de juegos portátil, un teléfono inteligente, un ordenador portátil, un ordenador de mano o similar.
En una característica de las realizaciones ejemplares de la presente invención, el procedimiento de soporte de cambio de objeto permite al usuario manipular objetos en la pantalla de forma fácil y conveniente.
Además, el procedimiento de soporte de cambio de objeto proporciona un tamaño de objeto optimizado de antemano para soportar el ajuste rápido de objetos y proporcionar información de manera optimizada.
Se apreciará que las realizaciones de la presente invención se pueden realizar en forma de hardware, software o una combinación de hardware y software. Cualquier software de este tipo puede almacenarse en forma de almacenamiento volátil o no volátil, como, por ejemplo, un dispositivo de almacenamiento como una ROM, ya sea borrable o regrabable o no, o en forma de memoria como, por ejemplo, RAM, chips de memoria, dispositivo o circuitos integrados o en un medio legible óptica o magnéticamente como, por ejemplo, un CD, DVD, disco magnético o cinta magnética o similares. Se apreciará que los dispositivos de almacenamiento y los medios de almacenamiento son realizaciones de almacenamiento legible por máquina que son adecuadas para almacenar un programa o programas que comprenden instrucciones que, cuando se ejecutan, implementan realizaciones de la presente invención. Por consiguiente, las realizaciones proporcionan un programa que comprende código para implementar un aparato o un procedimiento de acuerdo con se reivindica en una cualquiera de las reivindicaciones de la presente especificación y un almacenamiento legible por máquina que almacene dicho programa. Aún más, dichos programas pueden transmitirse electrónicamente a través de cualquier medio tal como una señal de comunicación transportada sobre una conexión por cable o inalámbrica y realizaciones adecuadamente englobadas en la misma.
A lo largo de la descripción y las reivindicaciones de esta memoria descriptiva, las palabras "comprender" y "contener" y las variaciones de las palabras, por ejemplo "que comprende" y "comprende", significan "que incluye pero no se limita a", y no pretende (y no) excluye otros restos, aditivos, componentes, números enteros o etapas.
A lo largo de la descripción y las reivindicaciones de esta memoria descriptiva, el singular abarca el plural a menos que el contexto requiera lo contrario. En particular, cuando se usa el artículo indefinido, la especificación debe entenderse como contemplar la pluralidad y la singularidad, a menos que el contexto requiera lo contrario.
Debe entenderse que los aspectos, números enteros, características, componentes, restos químicos o grupos descritos junto con un aspecto, realización o ejemplo particular de la invención son aplicables a cualquier otro aspecto, realización o ejemplo descrito en el presente documento, a menos que sea incompatible con los mismos.
También se apreciará que, a lo largo de la descripción y las reivindicaciones de esta memoria descriptiva, el lenguaje en la forma general de "X para Y" (donde Y es alguna acción, actividad o etapa y X es un medio para llevar a cabo esa acción, actividad o etapa) abarca los medios X adaptados u organizados específicamente, pero no exclusivamente, para hacer Y.
Si bien la invención se ha mostrado y descrito con referencia a ciertas realizaciones ilustrativas de la misma, se entenderá por los expertos en la materia que pueden hacerse diversos cambios en forma y detalles en la misma sin alejarse del ámbito de la invención de acuerdo con se define mediante las reivindicaciones adjuntas.

Claims (14)

REIVINDICACIONES
1. Un procedimiento que comprende:
mostrar (S101), en una pantalla (140) táctil de un terminal (100) móvil, una primera micro-aplicación (151, 200, 300) en un primer tamaño y en una primera disposición de información asociada con el primer tamaño y con mostrar un primer conjunto de información proporcionada a través de la primera micro-aplicación;
cambiar (S107) a un modo de edición de micro-aplicaciones en respuesta a la detección (S103) de un primer evento táctil predeterminado en la primera micro-aplicación;
mientras se encuentra en el modo de edición de micro-aplicaciones, cambiar la primera micro-aplicación por una segunda micro-aplicación relacionad con la primera micro-aplicación, en respuesta a una entrada táctil de arrastre, en el que cambiar la primera micro-aplicación por la segunda micro-aplicación comprende seleccionar (S109) la segunda micro-aplicación cuando la entrada táctil de arrastre alcanza una distancia preestablecida en una dirección predeterminada y mostrar (S111) una imagen de vista previa de la segunda micro-aplicación en una segunda disposición de información que está asociada con el tamaño de la segunda micro-aplicación y con la visualización de un segundo conjunto de información proporcionada a través de la segunda micro-aplicación, en el que el tamaño de la segunda micro-aplicación es diferente del primer tamaño de la primera micro-aplicación, al menos mientras se mantiene un contacto de la entrada táctil de arrastre en la pantalla táctil; y
recibir (S113) un evento táctil adicional para salir del modo de edición de micro-aplicaciones y mostrar la segunda micro-aplicación en la segunda disposición de información,
en el que la segunda disposición de información es diferente de la primera disposición de información, y en el que el primer conjunto de información y el segundo conjunto de información se actualizan basándose en la información recibida de un servidor.
2. El procedimiento de la reivindicación 1, en el que el terminal móvil almacena una pluralidad de micro-aplicaciones relacionados con la primera micro-aplicación y que comprende la segunda micro-aplicación, teniendo cada microaplicación de la pluralidad un tamaño definido respectivo y una disposición de información respectiva asociada con el tamaño definido respectivo y con la visualización un conjunto respectivo de información proporcionado a través de la micro-aplicación.
3. El procedimiento de la reivindicación 2, que comprende además:
después de recibir el primer evento táctil predeterminado, mostrar puntos de referencia, estando cada uno de los puntos de referencia asociado con uno de la pluralidad de micro-aplicaciones relacionados de los que se selecciona la segunda micro-aplicación,
en el que cada punto de referencia está configurado de acuerdo con el tamaño definido de aquél correspondiente de la pluralidad de micro-aplicaciones relacionados.
4. El procedimiento de la reivindicación 3, que comprende además:
mientras se encuentra en el modo de edición de micro-aplicaciones, mostrar un marco guía de la primera microaplicación, en el que el marco guía comprende regiones superpuestas que corresponden respectivamente a la pluralidad de micro-aplicaciones relacionados.
5. El procedimiento de la reivindicación 4, en el que el primer evento táctil predeterminado comprende una entrada táctil prolongada que se produce en la primera micro-aplicación, en el que se alcanza la distancia preestablecida en la dirección predeterminada cuando la entrada táctil de arrastre se mueve a uno de los puntos de referencia asociados con la segunda micro-aplicación, en el que mostrar el marco guía comprende mostrar la segunda micro-aplicación como la imagen de vista previa de la segunda micro-aplicación, y en el que la imagen de vista previa indica el tamaño definido y la disposición de información de la segunda micro-aplicación en relación con una porción restante de la pantalla.
6. Un terminal (100) móvil que comprende:
una pantalla (140) táctil; y
un procesador (160) configurado para:
controlar la pantalla (140) táctil para visualizar una micro-aplicación (151) en un primer tamaño y en una primera disposición de información asociada con el primer tamaño y con mostrar un primer conjunto de información proporcionada a través de la primera micro-aplicación (151),
cambiar a un modo de edición de micro-aplicaciones en respuesta a la detección de un primer evento táctil predeterminado en la primera micro-aplicación (151),
mientras que en el modo de edición de micro-aplicaciones, cambiar la primera micro-aplicación (151) por una segunda micro-aplicación relacionado con la primera micro-aplicación, en respuesta a una entrada táctil de arrastre, seleccionando la segunda micro-aplicación cuando la entrada táctil de arrastre alcanza una distancia preestablecida en una dirección predeterminada, y
controlar la pantalla (140) táctil para mostrar una imagen de vista previa de la segunda micro-aplicación en una segunda disposición de información que está asociada con el tamaño de la segunda micro-aplicación y con mostrar un segundo conjunto de información proporcionada a través de la segunda micro-aplicación, en el que el tamaño de la segunda micro-aplicación es diferente del primer tamaño de la primera micro-aplicación, al menos mientras se mantiene un contacto de la entrada táctil de arrastre en la pantalla (140) táctil, y recibir un evento táctil adicional para salir del modo de edición de micro-aplicaciones y mostrar la segunda micro-aplicación en la segunda disposición de información, en el que la segunda disposición de información es diferente de la primera disposición de información, y
en el que el primer conjunto de información y el segundo conjunto de información se actualizan basándose en la información recibida de un servidor.
7. El terminal móvil de la reivindicación 6, que comprende además: una memoria (150) configurada para almacenar una pluralidad de micro-aplicaciones relacionados con la primera micro-aplicación y que comprende la segunda microaplicación, teniendo cada micro-aplicación de la pluralidad un tamaño definido respectivo y una disposición de información respectiva asociada con el tamaño definido respectivo y con la visualización de un conjunto respectivo de información proporcionado a través de la micro-aplicación.
8. El terminal (100) móvil de la reivindicación 7,
en el que el procesador (160) está configurado además para, después de recibir el primer evento táctil predeterminado, mostrar puntos de referencia, estando cada uno de los puntos de referencia asociado con uno de la pluralidad de micro-aplicaciones relacionados de los que se selecciona la segunda micro-aplicación, y en el que cada punto de referencia está configurado de acuerdo con el tamaño definido de aquél correspondiente de la pluralidad de microaplicaciones relacionados.
9. El terminal (100) móvil de la reivindicación 8, en el que el procesador (160) está configurado además para, mientras se encuentra en el modo de edición de micro-aplicaciones, mostrar un marco (202; 302) guía de la primera microaplicación, en el que en el marco guía comprende regiones superpuestas que corresponden respectivamente a la pluralidad de micro-aplicaciones relacionados.
10. El terminal móvil de la reivindicación 9, en el que el primer evento táctil predeterminado comprende una entrada táctil prolongada que se produce en la primera micro-aplicación,
en el que la distancia preestablecida en la dirección predeterminada de la entrada táctil de arrastre se alcanza cuando la entrada táctil de arrastre se mueve a uno de los puntos de referencia que está asociado con la segunda microaplicación, en el que el procesador (160) está configurado además para mostrar la segunda micro-aplicación como la imagen de vista previa de la segunda micro-aplicación, y en el que la imagen de vista previa indica el tamaño definido y la disposición de la información de la segunda micro-aplicación en relación con una porción restante de la pantalla.
11. El terminal (100) móvil de la reivindicación 7, en el que el primer conjunto de información corresponde a información meteorológica.
12. El terminal (100) móvil de la reivindicación 6, en el que el procesador (160) está configurado además para controlar la pantalla táctil para mostrar un resaltado en respuesta al primer evento táctil predeterminado.
13. El terminal (100) móvil de la reivindicación 6, en el que la distancia preestablecida es una distancia preestablecida desde el inicio de la entrada táctil de arrastre.
14. El terminal móvil de la reivindicación 6, en el que se recibe el evento táctil adicional mientras se muestra la imagen de vista previa de la segunda micro-aplicación en la segunda configuración en el modo de edición de microaplicaciones.
ES12159699T 2011-03-21 2012-03-15 Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo Active ES2763957T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110024763A KR101864333B1 (ko) 2011-03-21 2011-03-21 아이콘 변경 기능 지원 방법 및 이를 지원하는 휴대 단말기

Publications (1)

Publication Number Publication Date
ES2763957T3 true ES2763957T3 (es) 2020-06-01

Family

ID=45874693

Family Applications (2)

Application Number Title Priority Date Filing Date
ES19213025T Active ES2901927T3 (es) 2011-03-21 2012-03-15 Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo
ES12159699T Active ES2763957T3 (es) 2011-03-21 2012-03-15 Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES19213025T Active ES2901927T3 (es) 2011-03-21 2012-03-15 Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo

Country Status (14)

Country Link
US (2) US20120246586A1 (es)
EP (3) EP2503440B1 (es)
JP (1) JP5977970B2 (es)
KR (1) KR101864333B1 (es)
CN (2) CN106802780B (es)
AU (1) AU2012232047B2 (es)
BR (1) BR112013024426B1 (es)
CA (1) CA2830636C (es)
ES (2) ES2901927T3 (es)
HU (1) HUE057459T2 (es)
PL (1) PL3678010T3 (es)
RU (1) RU2604518C2 (es)
WO (1) WO2012128457A1 (es)
ZA (1) ZA201307325B (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101864333B1 (ko) 2011-03-21 2018-07-05 삼성전자 주식회사 아이콘 변경 기능 지원 방법 및 이를 지원하는 휴대 단말기
US9377937B2 (en) 2012-04-06 2016-06-28 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
WO2013151322A1 (en) * 2012-04-06 2013-10-10 Samsung Electronics Co., Ltd. Method and device for executing object on display
KR102146244B1 (ko) * 2013-02-22 2020-08-21 삼성전자주식회사 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
KR101428365B1 (ko) * 2013-02-25 2014-08-08 주식회사 팬택 모바일 기기의 홈 스크린에서 위젯을 제공하는 방법 및 시스템
KR20140115731A (ko) * 2013-03-22 2014-10-01 삼성전자주식회사 휴대 단말기의 오브젝트 변환 방법 및 그 장치
KR101478557B1 (ko) * 2013-05-06 2015-01-05 (주)카카오 모바일 디바이스에 위젯을 표시하는 방법 및 모바일 디바이스
KR102138506B1 (ko) * 2013-07-15 2020-07-28 엘지전자 주식회사 이동 단말기
CN103455245B (zh) * 2013-08-20 2017-02-01 华为技术有限公司 微件面积调节的方法及装置
KR102202899B1 (ko) 2013-09-02 2021-01-14 삼성전자 주식회사 복수의 어플리케이션 제공 방법 및 장치
US20150227265A1 (en) * 2014-02-10 2015-08-13 Packsize Llc Generating and implementing a customizable user interface
CN104850297A (zh) * 2014-02-19 2015-08-19 联想(北京)有限公司 一种控件的显示方法及电子设备
WO2015167231A1 (ko) * 2014-04-28 2015-11-05 김기태 비주얼 오브젝트를 이용한 메시지 서비스 제공 방법 및 장치
US10637972B2 (en) * 2014-05-06 2020-04-28 Lattice Semiconductor Corporation System for dynamic audio visual capabilities exchange
JP6371577B2 (ja) * 2014-05-08 2018-08-08 古野電気株式会社 情報表示装置及び情報表示装置の表示レイアウト変更方法
KR20160020738A (ko) * 2014-08-14 2016-02-24 삼성전자주식회사 전자 장치 및 전자 장치의 사용자 인터페이스 제공 방법
KR101911747B1 (ko) * 2017-03-20 2018-10-25 주식회사 하이딥 터치종류 판별방법 및 이를 수행하는 터치 입력 장치
CN111124343B (zh) * 2019-12-30 2023-05-26 焦点教育科技有限公司 一种应用于校园的内容智能分发系统及方法
CN112199067B (zh) * 2020-12-04 2021-02-19 湖北芯擎科技有限公司 一种显示切换方法及装置
CN113849147A (zh) * 2021-09-30 2021-12-28 联想(北京)有限公司 一种信息处理方法及电子设备
WO2024034913A1 (ko) * 2022-08-08 2024-02-15 삼성전자 주식회사 전자 장치 및 전자 장치에서 복수의 위젯들을 그룹화하는 방법
CN117149028A (zh) * 2023-10-27 2023-12-01 Tcl通讯科技(成都)有限公司 一种显示控制方法、装置、存储介质及终端设备

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JP2000013549A (ja) 1998-06-19 2000-01-14 Olympus Optical Co Ltd 画像取り込み装置
US6909439B1 (en) 1999-08-26 2005-06-21 International Business Machines Corporation Method and apparatus for maximizing efficiency of small display in a data processing system
FI20001506A (fi) * 1999-10-12 2001-04-13 J P Metsaevainio Design Oy Kädessäpidettävän laitteen toimintamenetelmä
US6742042B1 (en) * 2000-06-28 2004-05-25 Nortel Networks Limited Method and apparatus of presenting ticker information
KR100405048B1 (ko) * 2001-09-10 2003-11-07 주식회사 케이티프리텔 이동 통신 단말기의 디스플레이 구조 변경 시스템 및 방법
JP2003173226A (ja) 2001-11-27 2003-06-20 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
JP2003195998A (ja) 2001-12-26 2003-07-11 Canon Inc 情報処理装置及び情報処理装置の制御方法及び情報処理装置の制御プログラム及び記憶媒体
US7421438B2 (en) 2004-04-29 2008-09-02 Microsoft Corporation Metadata editing control
NO20031586L (no) 2003-04-08 2004-10-11 Favourite Systems As Vindussystem for datainnretning
US7302650B1 (en) * 2003-10-31 2007-11-27 Microsoft Corporation Intuitive tools for manipulating objects in a display
GB2411331A (en) 2004-02-19 2005-08-24 Trigenix Ltd Rendering user interface using actor attributes
US7546543B2 (en) * 2004-06-25 2009-06-09 Apple Inc. Widget authoring and editing environment
US20060015820A1 (en) * 2004-07-19 2006-01-19 Eric Wood Fixed window selection
JP4861988B2 (ja) 2004-09-24 2012-01-25 マイクロソフト コーポレーション ファイルシステムシェルブラウザを実現するコンピュータ・プログラム
US7779362B1 (en) * 2005-09-02 2010-08-17 Adobe Systems Inc. Methods and apparatus for selecting objects by state
CN1811686A (zh) 2006-02-17 2006-08-02 魏新成 手机触摸屏上的任务栏和标题菜单工具栏
US7856605B2 (en) * 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US20080165148A1 (en) 2007-01-07 2008-07-10 Richard Williamson Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
JP2008243128A (ja) 2007-03-29 2008-10-09 Sanyo Electric Co Ltd タッチパネル装置
WO2008131417A1 (en) * 2007-04-23 2008-10-30 Snac, Inc. Mobile widget dashboard
US20090217186A1 (en) 2008-02-27 2009-08-27 Nokia Corporation Apparatus, computer-readable storage medium and method for providing widgets including advertisements for associated widgets
KR20100023891A (ko) 2007-05-25 2010-03-04 노키아 코포레이션 네트워크 엔티티, 단말, 컴퓨터 판독 가능한 저장 매체, 및 관련 위젯에 대한 광고를 포함한 위젯을 제공하는 방법
US7949954B1 (en) * 2007-08-17 2011-05-24 Trading Technologies International, Inc. Dynamic functionality based on window characteristics
EP2079052B1 (en) 2008-01-14 2011-03-23 Research In Motion Limited Using a shape-changing display as an adaptive lens for selectively magnifying information displayed onscreen
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
KR101569427B1 (ko) * 2008-10-02 2015-11-16 삼성전자주식회사 휴대 단말기의 터치 입력 장치 및 그의 운영 방법
KR101503835B1 (ko) 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
EP2192474B1 (en) 2008-12-01 2017-04-12 LG Electronics Inc. Method for operating execution icon of mobile terminal
KR101173982B1 (ko) * 2008-12-18 2012-08-16 한국전자통신연구원 터치 스크린을 이용한 인터페이스를 제공하는 이동식 단말기
KR20100097358A (ko) 2009-02-26 2010-09-03 (주)링스텔레콤 터치스크린을 구비한 휴대 전자기기의 위젯 처리 방법
US8117564B2 (en) 2009-04-10 2012-02-14 United Video Properties, Inc. Systems and methods for generating a media guidance application with multiple perspective views
JP5056810B2 (ja) 2009-07-17 2012-10-24 カシオ計算機株式会社 情報処理装置およびその制御プログラム
KR20110019861A (ko) * 2009-08-21 2011-03-02 삼성전자주식회사 휴대 단말기의 화면 구성 방법 및 이를 이용하는 휴대 단말기
KR101691823B1 (ko) 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101693379B1 (ko) * 2009-09-10 2017-01-06 엘지전자 주식회사 이동 통신 단말기의 메뉴 표시 방법 및 이를 적용한 이동 통신 단말기
US8381125B2 (en) * 2009-12-16 2013-02-19 Apple Inc. Device and method for resizing user interface content while maintaining an aspect ratio via snapping a perimeter to a gridline
CN101833417B (zh) 2010-04-23 2013-04-17 深圳桑菲消费通信有限公司 一种在手机上实现灵动视窗的系统及其方法
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US20110320939A1 (en) * 2010-06-23 2011-12-29 Motorola, Inc. Electronic Device for Providing a Visual Representation of a Resizable Widget Associated with a Contacts Database
EP2431870B1 (en) * 2010-09-17 2019-11-27 LG Electronics Inc. Mobile terminal and control method thereof
KR101729523B1 (ko) * 2010-12-21 2017-04-24 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR20120080922A (ko) * 2011-01-10 2012-07-18 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR101864333B1 (ko) 2011-03-21 2018-07-05 삼성전자 주식회사 아이콘 변경 기능 지원 방법 및 이를 지원하는 휴대 단말기

Also Published As

Publication number Publication date
EP2503440B1 (en) 2019-12-04
EP4012541A1 (en) 2022-06-15
CN106802780B (zh) 2020-04-07
ES2901927T3 (es) 2022-03-24
BR112013024426B1 (pt) 2021-03-16
CA2830636C (en) 2020-02-25
US20120246586A1 (en) 2012-09-27
US20180356955A1 (en) 2018-12-13
CN106802780A (zh) 2017-06-06
CN102710739B (zh) 2017-04-12
US10831362B2 (en) 2020-11-10
EP3678010B1 (en) 2021-11-24
CN102710739A (zh) 2012-10-03
EP2503440A3 (en) 2017-04-05
ZA201307325B (en) 2015-01-28
JP2012198893A (ja) 2012-10-18
RU2604518C2 (ru) 2016-12-10
PL3678010T3 (pl) 2022-05-23
CA2830636A1 (en) 2012-09-27
EP3678010A1 (en) 2020-07-08
AU2012232047A1 (en) 2013-09-05
EP2503440A2 (en) 2012-09-26
EP4012541B1 (en) 2023-04-26
AU2012232047B2 (en) 2016-10-06
JP5977970B2 (ja) 2016-08-24
RU2013142923A (ru) 2015-04-27
KR101864333B1 (ko) 2018-07-05
WO2012128457A1 (en) 2012-09-27
KR20130052748A (ko) 2013-05-23
BR112013024426A2 (pt) 2016-12-20
HUE057459T2 (hu) 2022-05-28

Similar Documents

Publication Publication Date Title
ES2763957T3 (es) Terminal móvil y procedimiento de soporte de cambio de objeto para el mismo
US9952681B2 (en) Method and device for switching tasks using fingerprint information
ES2757830T3 (es) Procedimiento y aparato multitarea de dispositivo de usuario
US10203859B2 (en) Method, apparatus, and computer program product for implementing a variable content movable control
RU2631986C2 (ru) Способ и устройство для работы функции в сенсорном устройстве
EP3041201A1 (en) User terminal device and control method thereof
EP2770414A2 (en) Portable device and method for operating multiapplication thereof
EP2775388A2 (en) Method and apparatus for manipulating data on electronic device display
KR20160069286A (ko) 이동 단말기 및 그 제어 방법
KR20150026162A (ko) 전자 장치의 컨텐츠 공유 방법 및 장치
US8994678B2 (en) Techniques for programmable button on bezel of mobile terminal
CN105227753A (zh) 移动终端及其控制方法
KR20140122404A (ko) 휴대 단말기에서 메시지를 편집하는 장치 및 방법
KR20140031036A (ko) 이동 단말기 및 그의 어플리케이션 아이콘 이동 방법
KR20120012541A (ko) 터치 디바이스에서 폴더 운용 방법 및 장치
KR20110093097A (ko) 휴대 단말기의 리스트 편집 방법 및 장치
US10146401B2 (en) Electronic device, control method, and control program
US20150234528A1 (en) Input processing method and apparatus of electronic device
KR101966708B1 (ko) 배경 컨텐츠 운용 방법 및 이를 지원하는 단말기
US20150067612A1 (en) Method and apparatus for operating input function in electronic device
US20200019305A1 (en) Method for altering display ratio of application, and electronic device that realises same
US10241634B2 (en) Method and apparatus for processing email in electronic device
KR101332661B1 (ko) 인식 대상 영역을 설정할 수 있는 단말기