MX2013007308A - Aparato de terminal de visualizacion de tres dimensiones (3d) y metodo de operacion del mismo. - Google Patents

Aparato de terminal de visualizacion de tres dimensiones (3d) y metodo de operacion del mismo.

Info

Publication number
MX2013007308A
MX2013007308A MX2013007308A MX2013007308A MX2013007308A MX 2013007308 A MX2013007308 A MX 2013007308A MX 2013007308 A MX2013007308 A MX 2013007308A MX 2013007308 A MX2013007308 A MX 2013007308A MX 2013007308 A MX2013007308 A MX 2013007308A
Authority
MX
Mexico
Prior art keywords
screen
objects
touch
perceived
display
Prior art date
Application number
MX2013007308A
Other languages
English (en)
Inventor
Jung-Hyun Shim
Yong-Yeon Lee
Yeon-Hee Lee
Ja-Ok Koo
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of MX2013007308A publication Critical patent/MX2013007308A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Abstract

Un método de operación de un aparato de terminal de visualización de tres dimensiones (3D) incluye visualizar una pluralidad de objetos con diferentes grados de profundidades percibidas, y cambiar el estado de visualización de la pluralidad de objetos de acuerdo con la manipulación de usuario. La manipulación de usuario incluye una pluralidad de modos de toque que son percibidos como profundidades diferentes que corresponden con los grados de profundidades percibidas, y la pluralidad de modos de toque incluye un modo de toque directo y un modo de toque cercano. Como resultado, el aparato de terminal es operado con una facilidad aumentada.

Description

APARATO DE TERMINAL DE VISUALIZACION DE TRES DIMENSIONES (3D) Y METODO DE OPERACION DEL MISMO Campo de la Invención La presente invención se refiere, de manera general, a una visualización de imagen de tres dimensiones (3D) , y de manera más particular, a un aparato de terminal de visualización 3D que visualiza una pluralidad de objetos con diferentes grados de prof ndidades percibidas en un modo de visualización 3D, y permite la operación de los objetos visualizados mediante un toque, y se refiere a un método de operación del mismo.
Antecedentes de la Invención El desarrollo de la tecnología electrónica ha conducido a la introducción y distribución amplia de varios tipos de dispositivos de terminal móvil. Los 'teléfonos inteligentes' proporcionan una variedad de servicios de aplicación que han sido recientemente liberados, además, mejoran el nivel de los servicios proporcionados or, los teléfonos móviles convencionales y obtienen una popularidad en aumento.
Los usuarios de los aparatos de terminal, tales ^comó los teléfonos inteligentes, pueden acceder a varios servicios, tales como la edición de un documento o la transmisión de un correo electrónico. A través de estos REF. 240244 servicios, también es posible seleccionar y copiar el contenido, tales como las imágenes o fotos, y es posible pegar estas en otros documentos o aplicaciones.
Sin embargo, estos aparatos de terminal han limitado la selección y el uso del contenido, principalmente debido a que sus tamaños de pantalla o visualización son limitados con propósitos de portabilidad. Por ejemplo, es difícil que un usuario, que ha copiado y pegado el contenido, verifique el contenido copiado una vez que es cambiada la página.
En consecuencia, es necesario un método, a través del cual se permita que los usuarios operen los dispositivos de terminal con un aumento de facilidad y conveniencia.
Breve Descripción de la Invención Problema Técnico Las modalidades de la presente invención son dirigidas para superar las desventajas anteriores y otras más de la técnica anterior.
Solución al Problema De acuerdo con la presente invención, es descrito uh aparato de terminal de visualización 3D, el cual visualiza una pluralidad de objetos con diferentes grados. de profundidades percibidas, y permite que los respectivos objetos sean seleccionados y activados de acuerdo con una pluralidad de modos de toque que corresponden con . los respectivos grados de profundidades percibidas, y un método de operación del mismo.
Un método para la operación de un aparato de terminal de visualización 3D incluye visualizar una pluralidad de objetos con diferentes grados de profundidades percibidas, y se cambia el estado de visualización de la pluralidad de objetos de acuerdo con la manipulación del usuario, que comprende una pluralidad de modos de toque que son percibidos como profundidades diferentes que corresponden con las profundidades percibidas.
El método incluye, de manera adicional, antes de visualizar la pluralidad de objetos con diferentes grados de profundidades percibidas, visualizar los objetos con los mismos grados de profundidades percibidas, y si un objeto es seleccionado de entre los objetos, se ajusta el grado de profundidad percibida del objeto seleccionado.
El método además incluye, antes de visualizar la pluralidad de objetos con diferentes grados de profundidades percibidas, visualizar las pantallas comprendidas de objetos con los mismos grados de profundidades percibidas, si un objeto es seleccionado de las pantallas, se visualiza una ventana de selección de menú en un lado del objeto seleccionado, y si un menú de copia es seleccionado de la ventana de selección de menú, se ajusta el grado de profundidad percibida del objeto seleccionado.
El método incluye,, de manera adicional, antes de visualizar la pluralidad de objetos con diferentes grados de profundidades percibidas, visualizar una pantalla comprendida de objetos con los mismos grados de profundidades percibidas, y si un objeto es tocado en la pantalla, y el estado de toque gira hacia una dirección preestablecida o se mueve en un patrón preestablecido, se ajusta el grado de profundidad percibida del objeto seleccionado.
Un aparato de terminal 3D es proporcionado, e incluye una unidad de visualización que visualiza una pluralidad de objetos con el mismo grado de profundidad percibida, una unidad de conversión que ajusta el grado de profundidad percibida de un objeto seleccionado de entre la pluralidad de objetos si un objeto es seleccionado de la pluralidad de objetos, y una unidad de control que percibe la manipulación de usuario de acuerdo con una pluralidad de modos de toque que perciben los toques de diferentes profundidades que corresponden con los grados . de profundidades percibidas de los respectivos objetos, y controla la unidad de visualización y la unidad de conversión para cambiar los estados de visualización de los objetos.
El aparato de terminal de visualización 3D podría incluir, de manera adicional, una primera unidad de detección que detecta un toque directo a través del cual una pantalla de la unidad de visualización es directamente tocada, y una segunda unidad de detección que detecta un toque cercano a través del cual es realizado un toque dentro de un intervalo de distancia predeterminada en la pantalla de la unidad de visualización.
Efectos Ventajosos de la Invención En la presente invención como se explica con anterioridad, el usuario es capaz de seleccionar y utilizar los objetos tales como el contenido o los iconos en el aparato de terminal con una conveniencia mejorada.
Breve Descripción de las Figuras Los aspectos anteriores y/u otros aspectos de lo que se describe en la presente serán más aparentes mediante la descripción de las modalidades con referencia a las figuras que la acompañan, en las cuales: La Figura 1 ilustra un aparato de terminal de visualización 3D de acuerdo con la presente invención; La Figura 2 ilustra un ejemplo del aparato de terminal de visualización 3D de la Figura 1; La Figura 3 ilustra un ejemplo de un método para la detección del toque adyacente, de acuerdo con la presente invención; La Figura 4 ilustra un ejemplo de visualización de una pluralidad de objetos con diferentes grados^ de profundidad entre sí, de acuerdo con la presente invención,- La Figura 5 ilustra una diferencia entre los estados de visualización de los objetos con grados variables de profundidad y que corresponden con el método de toque', de acuerdo con la presente invención; Las Figuras 6-11 ilustran un método de operación de acuerdo con las modalidades de la presente invención; y Las Figuras 12-14 ilustran un método de operación de un aparato de terminal de visualización 3D de acuerdo con las modalidades de la presente invención.
Descripción Detallada de la Invención Las modalidades de la presente invención serán descritas en detalle con referencia a las figuras qué la acompañan. En la siguiente descripción, los detalles específicos, tales como la configuración detallada y los componentes, simplemente son proporcionados para ayudar al ' entendimiento . completo de las modalidades de la presente invención. Por lo tanto, debe ser aparente para aquellas personas expertas en la técnica que varios cambios y modificaciones de las modalidades descritas en la presente pueden ser realizados sin apartarse del alcance -y espíritu de la invención. A través de todas las figuras, los mismos números de referencia de la figura serán entendidos qué sé refieren a los mismos elementos, características y estructuras. En adición, las descripciones de las funciones y construcciones bien conocidas son omitidas por motivos de claridad y concisión.
La Figura 1 ilustra un aparato de terminal de visualización 3D de acuerdo con la presente invención. El aparato de terminal de visualización de la Figura 1 podría ser implementado como una terminal móvil tal como un teléfono móvil, un Asistente Personal de Datos (PDA, por sus siglas en inglés), una computadora portátil de tipo ? laptop', una Computadora Personal de tipo ' tablet' (PC, por sus siglas en inglés) , cuadro electrónico, un libro electrónico, o un reproductor de Audio de Capa 3 MPEG (MP3) , u otras formas de terminal tal como una televisión.
Con referencia a la Figura 1, el aparato de terminal de visualización 3D incluye una unidad de visualización 110, una unidad de conversión 120 y una unidad de control 130.
La unidad de visualización 110 da salida a una pantalla que incluye al menos un objeto, que se refiere a un signo indicativo de un significado independiente que incluye texto, imagen o foto en una pantalla, o varios tipos de iconos tales como iconos de menú o carpeta. ; En el modo en espera, la unidad de visualización 110 podría dar salida a los iconos que corresponden con varios programas de . aplicación instalados en el aparato de terminal, o iconos de menú preparados para la activación de| las correspondientes aplicaciones. Si es seleccionado , una aplicación o menú específico, es visualizada una pantalla que corresponde con la aplicación o menú seleccionado. La pantalla de visualización podría incluir varias formas y tamaños de imágenes, fotos o menús .
La unidad de conversión 120 ajusta el grado de profundidad percibida de un objeto seleccionado, si el objeto es seleccionado de entre los objetos visualizados en la pantalla por la unidad de visualización 110. El grado de profundidad percibida en la presente se refiere al grado a través del cual el objeto parece sobresalir o hundirse con respecto al plano de la pantalla. Es decir, a través del método de visualización 3D, le es proporcionada al usuario la percepción de profundidad debido a la disparidad entre las imágenes de lado izquierdo y lado derecho.
La unidad de conversión 120 convierte la imagen del correspondiente objeto en datos 3D para ajustar el grado de profundidad percibida del objeto seleccionado. El método de visualización 3D podría ser del tipo de lente o sin lente, dependiendo si son utilizados lentes.
Es decir, si el aparato de terminal de visualización 3D es del tipo de lente que requiere que el usuario lleve puestos lentes dedicados, la unidad de conversión 120 genera las imágenes de ojo izquierdo y ojo derecho del objeto seleccionado. En la presente, las imágenes de ojo izquierdo y ojo derecho son obtenidas mediante la observación de un objeto a partir de diferentes puntos de vista. La percepción de profundidad, es decir, el grado de profundidad percibida puede ser la distancia entre los bloques que corresponden con las imágenes de ojo izquierdo y ojo derecho, de manera respectiva .
La unidad de visualización 110 da salida a las imágenes de ojo izquierdo y ojo derecho generadas en la unidad de conversión 120 en forma alterna a través de un número de veces. La unidad de control 130, que utiliza una unidad de transmisión de señal sincronizada proporcionada por separado (no se ilustra) , transmite una señal de sincronización en sincronización con la temporización alterna de salida de las imágenes de ojo izquierdo y ojo derecho hacia los lentes 3D. Eri consecuencia, los lentes 3D encienden los lentes de lado izquierdo y lado derecho de acuerdo con la señal de sincronización para proporcionar las imágenes 3D al usuario.
Cuando el aparato de terminal de visualización 3D no es del tipo de lente, con lo cual, no se requiere que el usuario lleve puestos lentes dedicados, la unidad de conversión 120 convierte la imagen del objeto seleccionado en la imagen de punto de múltiples vistas y proporciona la imagen convertida a la unidad de visualización 110.
De manera específica, la unidad de conversión 120 estima el grado de variación de la distancia o la dirección hacia un objeto cuando cambia el punto focal, utilizando la distancia focal, o la profundidad de un objeto, con referencia a una señal de imagen. En función del resultado de la estimación, la unidad de conversión 120 genera una nueva imagen moviendo las ubicaciones de los respectivos pixeles de una imagen de referencia. La imagen generada podría ser una imagen que puede ser adquirida observando un objeto a partir de un ángulo separado de la imagen de referencia. La unidad de conversión 120 podría generar de este modo una pluralidad de imágenes de punto de múltiples vistas.
La unidad de visualización 110 divide, en forma espacial, la imagen de múltiples .vistas y da salida al resultado, de modo que un usuario puede percibir una distancia hacia un objeto y puede observar una imagen 3D sin tener que usar o llevar puestos lentes dedicados. Por ejemplo, si son generadas nueve imágenes de punto de múltiples vistas, las imágenes de punto de múltiples vistas son salidas a partir de un lado de la pantalla en secuencia, y en el final en donde la última imagen es salida, es decir, en donde es salida la novena imagen, las imágenes son salidas una vez más a partir de la primera imagen en ángulos variables y hacia la dirección frontal de la pantalla. En consecuencia, incluso sin usar o llevar puestos los lentes, el usuario puede percibir la profundidad. Mientras tanto, el número de imágenes de punto de múltiples vistas no es limitado a nueve, y también podría variar el número de direcciones de visualización de acuerdo con el número de imágenes de punto de múltiples vistas. Además, para dar salida a las imágenes de punto de múltiples vistas, la unidad de visualización 110 podría incluir paneles de visualización de acuerdo con la tecnología de barrera de paralelaje o la tecnología lenticular.
La unidad de control 130 percibe la manipulación de usuario de acuerdo con una pluralidad de modos de toque en la cual la unidad de control 130 percibe profundidades variables de toque, que corresponden con los grados de profundidades percibidas de los respectivos objetos visualizados. En consecuencia, la unidad de control 130 controla la unidad de visualización 110 y la unidad de conversión 130 para cambiar el estado de visualización de los objetos de acuerdo con la manipulación de usuario.
Los modos de toque podrían ser implementados en varios modos, tal como la inclusión al menos de dos de un modo de toque cercano en el cual un usuario selecciona un objeto a una distancia de la pantalla, un modo de toque directo en el cual el usuario selecciona un objeto al tocar directamente la pantalla, un modo de presión en el cual el usuario selecciona un objeto al variar la presión de toque mientras se mantiene el contacto directo con la pantalla, y un modo de presión larga en el cual el usuario selecciona un objeto variando el tiempo del toque directo de la pantalla.
Para un objeto que sobresale de la pantalla en el modo de visualización 3D, la unidad de control 130 podría controlar de modo que la operación sea realizada en el modo de toque cercano en el cual es percibido un correspondiente objeto que está siendo seleccionado cuando el usuario coloca su dedo o similares sobre el objeto a una distancia. Es decir, el usuario no toca en forma directa la pantalla.
Por el contrario, para un objeto de dos dimensiones (2D) , que es directamente visualizado en la pantalla, la operación podría ser realizada en el modo de toque directo en el cual el usuario puede seleccionar el objeto tocando directamente en la pantalla.
De manera adicional, para un objeto percibido que es sumergido en la pantalla en el modo de visualización 3D, la operación de percepción de selección de un objeto podría ser realizada en el modo de presión o el modo de presión larga. Es decir, un objeto visualizado en la pantalla podría ser percibido que está siendo seleccionado si es entrado un simple toque, mientras un objeto sumergido podría ser percibido que está siendo seleccionado si el objeto en el toque es presionado con una fuerza que excede un umbral o durante una duración más larga que el umbral .
Estos modos de toque podrían ser combinados y utilizados en varios modos. Por ejemplo, el modo de toque cercano y el modo de toque directo podrían ser aplicados en combinación. En forma alterna, el modo de presión o el" modo de presión larga y el modo de toque directo y el modo de toque cercano podrían ser aplicados en combinación. En el ejemplo anterior, un objeto que sobresale de la pantalla, un objeto visualizado en el plano de la pantalla, y un objeto sumergido en la pantalla podrían ser seleccionados, de manera adecuada, de acuerdo con los grados de profundidades percibidas de los mismos mediante el toque cercano, el toque directo, el modo de presión o el modo de presión larga.
El modo de toque cercano podría ser subdividido e una pluralidad de modos de toque cercano de acuerdo con la distancia a la pantalla. El modo de presión también podría ser subdividido en una pluralidad de modos de presión de acuerdo con un nivel de presión dé toque. El modo de presión larga también podría ser subdividido en una pluralidad de modos de presión larga de acuerdo con la duración del tiempo de toque .
La Figura 2 ilustra un aparato de terminal de visualización 3D de acuerdo con la presente invención. Con referencia a la Figura 2, el aparato de terminal de visualización 3D incluye la unidad de visualización 110., la unidad de conversión 120, la unidad de control 130, una unidad de comunicación 140, la unidad de almacenamiento 150 , y una unidad de detección 160.
La operación de la unidad de visualización 110;, la unidad de conversión 120 y la unidad de control 130 no será explicada en detalle más adelante, aunque es referida a la descripción anterior proporcionada con anterioridad con referencia a la Figura 1.
La unidad de comunicación 140 podría ser conectada con una fuente externa por medio de una interconexión alambrada/inalámbrica para descargar o subir varios programas y datos, y podría acceder a un servidor correspondiente y podría recibir el contenido, si es entrado un Localizador de Recursos Uniformes (URL, por sus siglas en inglés) del servidor externo o si es ejecutada una aplicación específica.
La unidad de almacenamiento 150 almacena varios programas y datos, así como también, datos recientemente entrados, establecidos o generados durante un proceso en el que es ejecutado del programa de aplicación. La unidad de almacenamiento 150 también podría almacenar las imágenes de ojo izquierdo y ojo derecho para la visualización 3D, o las imágenes de punto de múltiples vistas .
La unidad de detección 160 detecta el movimiento o el toque de usuario y notifica el resultado detectado a la unidad de control 130. La unidad de detección 160 podría incluir una pluralidad de la primera-enésima unidades de detección 161-1 a 161-n que corresponden con la pluralidad de modos de toque .
La primera unidad de detección 161-1 podría detectar un toque directo del usuario quien toca, en forma directa, la pantalla de la unidad de visualización 110, y la segunda unidad de detección 161-2 podría detectar el toque cercano por el usuario dentro de un intervalo de distancia a la pantalla de la unidad de visualización 110.
La segunda unidad de detección 161-2 podría ser construida en varios modos para detectar el toque cercano a través de varios métodos, y podría detectar el toque cercano en un modo de emisión de luz/recepción de. luz, como es mostrado en la Figura 3.
Con referencia a la Figura 3 , la segunda unidad de detección 161-2 incluye un elemento de emisión de luz 161a y un elemento de recepción de luz 161b. El elemento de emisión de luz 161a podría emitir luz en un ángulo, de modo que el sitio óptico se alarga, en forma gradual. El elemento de recepción de luz 161b proporciona a la unidad de control 130 una señal eléctrica que corresponde con el grado de recepción de la luz emitida a partir del elemento de emisión de; luz 161a. La cantidad de luz detectada en el elemento de recepción de luz 161b disminuye y el tamaño de la señal eléctrica proporcionada a la unidad de control 130 varía de. manera subsiguiente, a medida que el dedo de usuario o similares se aproxima a la dirección de la pantalla : del aparato de terminal de visualización 3D 100 y bloquea la luz en el proceso.
La unidad de control 130 podría determinar si ha existido un toque cercano de acuerdo con el grado: de variación del tamaño de la señal eléctrica. Por ejemplo, la unidad de control 130 podría determinar que el usuario hizo un toque cercano, cuando se determina que la diferencia entre el tamaño del sitio óptico estimado de acuerdo con las distancias al elemento de emisión de luz 161a, y el tamaño del tamaño de sitio óptico que corresponde con el flujo luminoso actualmente detectado excede un intervalo.
En forma alterna, la segunda unidad de detección 161-2 podría incluir un dispositivo conectado de carga (CCD, por sus siglas en inglés) , que es utilizado para fotografiar la dirección frontal de la pantalla, y la unidad de control 130 podría determinar que ha sido realizado un toque cercano cuando se determina que un objeto fotografiado se encuentra dentro de una distancia a la pantalla en función de los resultados fotografiados.
En forma alterna, la segunda unidad de detección 161-2 podría ser implementada como un sensor capacitivo. Es decir, si varía el tamaño de la capacitancia, de manera; que exceda un umbral a medida que el dedo de usuario se mueve; más cercano a la pantalla, . la unidad de control 130 podría percibir que ha sido realizado un toque cercano.
Si la pluralidad de modos de toque de manera adicional incluye el modo de presión o el modo de presión larga, la unidad de detección 160 podría incluir, de manera adicional, un sensor o temporizador de presión.
Es decir, en el modo de presión, el sensor de presión podría ser colocado en el interior de la pantalla de la unidad de visualización 110 para detectar la variación de la presión en una ubicación en donde es realizado el toque. En consecuencia, los objetos en diferentes capas son percibidos que son seleccionados en función de si el usuario presiona la ubicación con una presión o si el usuario simplemente toca la ubicación. Por ejemplo, un objeto 3D, sumergido en la porción inferior de la pantalla, podría' ser percibido que es seleccionado si el usuario presiona la pantalla con presión, mientras un objeto visualizado en la pantalla podría ser percibido que es seleccionado si el usuario simplemente toca la pantalla.
En el modo de presión larga, los objetos en diferentes capas podrían ser percibidos que son seleccionados en función de si el usuario mantiene el toque en una ubicación en la pantalla durante más de una duración de tiempo a partir del tiempo que el usuario empieza a tocar la ubicación, o si el usuario deja de tocar la ubicación dentro de la duración de tiempo. En este ejemplo, un temporizador (no se ilustra) podría ser utilizado, de manera adicioneil, y la unidad de control 130 podría controlar el temporizador para contar el tiempo entre el momento cuando el toque es detectado a través del sensor de toque y cuando es detenido el toque.
La Figura 4 ilustra una pantalla de un aparato de terminal de visualización 3D de acuerdo con la presente invención.
Con referencia a la Figura 4, una pantalla de contenido 200, que contiene al menos un objeto 10, podría ser visualizada en el aparato de terminal de visualización 3D 100. Si el usuario selecciona un objeto 10, el grado de profundidad percibida del objeto seleccionado es ajustado. Como resultado, la visualización 3D es aplicada, expresando el objeto seleccionado y los otros objetos en diferentes grados de profundidades percibidas .
La Figura 4 ilustra, de manera particular, un ejemplo en el cual una imagen 3D 20 sobresale de la pantalla 200 en una dirección vertical, mientras el objeto seleccionado 10 permanece visualizado en el plano de pantalla original. La imagen 3D 20, es decir, el objeto sobresaliente 20 podría ser de un tamaño idéntico al tamaño del objeto original 10, o en un tamaño reducido a una velocidad predeterminada. El objeto sobresaliente 20 podría - ser visualizado por encima del objeto original 10, o en una porción superior del área en donde no existe contenido colocado en la pantalla.
En un estado que el objeto sobresaliente 20 ::y la pantalla original 200 son visualizados en diferentes capas con diferentes grados de profundidades percibidas, el usuario opera el objeto sobresaliente 20 en el modo de toque cercano, mientras se opera la pantalla original 200 en el modo de toque directo. El usuario cambia la pantalla 200 a otra pantalla 200' por medio de un toque directo. El objeto sobresaliente 20 permanece visualizado en la capa diferente de la pantalla original 200 incluso cuando cambia la pantalla .
En la pantalla cambiada 200', si el usuario selecciona el objeto sobresaliente 20 por medio del modo de toque directo y después se mueve a un punto de selección, se mueve la ubicación en la cual es visualizado el objeto sobresaliente 20. Si el usuario toca en forma directa en la pantalla durante ese movimiento, con referencia a la Figura 4, el objeto sobresaliente 20 es directamente pegado en la ubicación tocada sobre la pantalla original 200. El objeto sobresaliente 20 desaparece, y el grado de profundidad percibida del objeto 20 pegado en la pantalla original 2.0 es regresado al estado original. Es decir, el objeto 20 es visualizado en la misma capa que la pantalla original 200. Como se explica con anterioridad, la función de copiar y pegar fácil es realizada por medio de la pluralidad de modos de toque .
La Figura 5 ilustra capas de diferentes grados de profundidades percibidas de una con respecto a la otra., de acuerdo con la presente invención. Con referencia a la Figura 5, suponiendo que la pantalla actual del aparato de terminal de visualización 3D es el plano X-Y, la pantalla original 200 es visualizada con una profundidad Z0, mientras el objeto sobresaliente es visualizado en una capa (Z+) 300 en una altura predeterminada en la dirección de eje Z+. El objeto es seleccionado y operado a través del modo de toque cercano en la capa Z+ 300, mientras el objeto es seleccionado y operado por el modo de toque directo en la capa Z0 200. Aunque una capa Z+ 300 es ilustrada en la Figura 5, una pluralidad de capas Z+ podría ser proporcionada en función de los grados de las profundidades percibidas del objeto sobresaliente. La pluralidad de capas Z+ podría ser generada ajustando las disparidades entre las imágenes para varios valores. Además, aunque la capa Z+ sólo es ilustrada en la Figura 5 como la capa que sobresale de la pantalla, una capa Z- (no se muestra) , que se sumerge en la pantalla, también podría: ser utilizada .
La Figura 6 ilustra un método para la operación de un aparato de terminal de visualización 3D de acuerdo con la presente invención.
Con referencia a la Figura 6, cuando es ejecutada una aplicación "APLICACIÓN A", la pantalla de aplicación; 200 es visualizada, y un objeto 10 podría ser visualizado en la pantalla 200.
Entonces, a medida que el usuario toca en forma directa el objeto 10, un área 11 para la selección de los menús es visualizada en un lado del objeto 10. El área 11 podrí ser representada como una imagen gráfica como es ilustrado en la Figura 6, o como un área de menú generada en un lado de la pantalla 200. El área 11 podría incluir menús tales como "COPIAR" (Figura 6) o varios otros menús en la misma.
El usuario vuelve a tocar en forma directa el menú "COPIAR" . Para la concisión de la explicación, un lugar o sitio "un" que es directamente tocado, es representado como "·" . Si el menú "COPIAR" es directamente tocado, la imagen 3D 20 que corresponde con el objeto seleccionado 10 es visualizada, y será superpuesta con parte de . la pantalla original 200. Con referencia a la Figura 6, el menú "APLICACIÓN. A" 50, que se dirige a regresar, hacia la pantalla principal de la APLICACIÓN A se superpone con la pantalla original 200. Aunque se superponen entre sí, las respectivas imágenes 20, 200 son distinguibles con facilidad por el usuario mediante la percepción de profundidad, es decir, debido a que la imagen 3D 20 sobresale en dirección vertical de la pantalla.
En este estado, el usuario podría seleccionar la imagen 3D 20 o la pantalla original 200, la imagen 3D 20 por medio del modo de toque cercano, o la pantalla original 200 por el toque directo (a) . Con referencia a la Figura 6, si el usuario toca directamente el área de la imagen 3D 20, es seleccionado el menú "APLICACIÓN A" 50 por debajo de la imagen 3D 20. En consecuencia, la pantalla por debajo de la imagen 3D 20 cambia, mientras que es mantenida la imagen 3D 20. Es decir, debido a que el menú "APLICACIÓN A" 50 es directamente tocado, la pantalla cambia a la pantalla principal 200-1 de la correspondiente aplicación. Incluso en este estado, el usuario podría ejecutar una aplicación diferente tocando la pantalla original. Por ejemplo, el usuario podría cambiar a una pantalla de aplicación principal 200-2 como se ilustra en la Figura 6. Entonces, si el usuario selecciona la imagen 3D, es decir, el objeto sobresaliente 20 por medio del toque cercano (b) , mantiene tocando el objeto 20 y arrastra el contenido dentro de una ventana de mensaje por el toque directo (a) , el objeto 60 que corresponde con el contenido es pegado y visualizado, y el objeto sobresaliente 20 desaparece. .
Un menú de selección y copia de objeto podría: ser entrado de acuerdo con un movimiento de usuario, en lugar de utilizar el menú 11 ilustrado en la Figura 6.
Con referencia a la Figura 7, el usuario toca directamente el objeto 10 y gira su dedo en contacto en! una dirección de giro de las manecillas del reloj . Si el dedo en contacto es girado en esta dirección, esto es percibido tomo un intento del usuario para copiar un objeto correspondiente 10. En consecuencia, el objeto sobresaliente 10 podría ser visualizado con el grado ajustado de profundidad percibida, es decir, podría ser visualizado como una imagen 3D.
Con referencia a la Figura 8, que ilustra otro ejemplo de operación de un aparato de terminal de visualización 3D de acuerdo con la presente invención, el usuario podría tocar directamente el objeto 10 y mover su dedo en contacto con otro punto de acuerdo con un patrón preestablecido. Por ejemplo, si el usuario mueve su dedo hacia otro punto a una velocidad establecida o menor, esto es percibido como un comando de usuario para mover la ubicación del objeto. En consecuencia, el objeto es movido. Si el dedo en el toque es movido más rápido que la velocidad establecida, esto es percibido como la intención del usuario para copiar el correspondiente objeto 10, de modo que el grado de profundidad percibida del correspondiente objeto 10 es ajustado de modo que el objeto 10 es visualizado como una imagen 3D. Si el usuario toca el objeto 10 y hace un gesto como si estuviera empujando el objeto 10 hacia arriba, el objeto podría ser sobresaliente en la dirección Z+ en 3D.
En forma alterna, el usuario podría manipular; de manera adecuada, los objetos de diferentes grados de profundidades percibidas, utilizando el modo de cambió de capa con los modos de toque .
Con referencia a la Figura 9, si el objeto 10 es seleccionado en la pantalla 100 y es visualizado como una imagen 3D 20, un menú tal como el menú de "cambio" 70 podría aparecer en un área de la pantalla 100. El menú de "cambio" 70 es utilizado para entrar un comando que cambia una capa.
Cuando el. objeto seleccionado 10 es sobresalido y visualizado como la imagen 3D 20 en la capa Z+ y la pantalla original 200 es visualizada en la capa Z0, si el usuario toca directamente "a" en el menú de "cambio" 70, la pantalla original 200 es visualizada en 3D en la capa Z+, y la imagen sobresaliente 20 es realizada a la capa Z0. Entonces, si el usuario vuelve a seleccionar el menú de "cambio" 70, los grados de profundidades percibidas de los contenidos son cambiados una vez más. Como se explica con anterioridad, la imagen sobresaliente 20' y la pantalla original 2Ó0 podrían ser visualizadas, en forma alterna, en las capas intercambiadas de acuerdo con un comando para cambiar: las capas. El contenido visualizado en la capa Z+ también podría ser seleccionado por el modo de toque directo.
Es decir, el usuario selecciona y copia un objeto 10 de la pantalla en la cual los objetos son inicialmente visualizados con el mismo grado de profundidad percibida. El aparato de terminal de visualización 3D visualiza la misma imagen que el objeto seleccionado 10 como la imagen 3D 20. Entonces, el usuario selecciona el comando para cambiar las capas, de modo que la pantalla original 200 es mantenida en la capa superior, mientras la imagen 3D 20 es visualizada en la capa inferior. En este estado, el usuario cambia la pantalla tocando directamente la pantalla original 200. El * cambio de pantalla' en la presente podría incluir no sólo el cambio de página, sino también la visualización de una pantalla de acuerdo con la ejecución de una nueva aplicación. Como se explica con anterioridad, el. usuario selecciona una pantalla 200-2 en la cual será utilizado el contenido copiado, entrando un comando para cambiar las capas, de modo que la imagen 3D 20 se mueve hacia atrás sobre la capa superior, y se arrastra el área de toque directo "a" . A medida que el usuario completa del arrastre, el aparato de terminal " de visualización 3D pega la correspondiente imagen 20 de un área en donde es detenido del arrastre, y visualiza el objeto 60.
Mediante la aplicación del modo de toque directo junto con el modo de cambio de capa, es posible manipular los objetos utilizando el método de visualización 3D, y el aparato no tiene que ser equipado con un sensor para detectar el toque cercano.
Aunque el menú de "cambio" es indicado en la pantalla 100 en la Figura 9, esto sólo es mostrado para propósitos ilustrativos y son posibles ejemplos alternativos. Por ejemplo, el aparato de terminal de visualización 3D podría incluir una tecla proporcionada en su cuerpo principal para percibir la selección del menú de cambio de capa cuando la tecla es seleccionada. En forma alterna el aparato de terminal de visualización 3D podría ser proporcionado con un sensor geomagnético, un sensor giroscópico, o un sensor de aceleración, y podría percibir el comando de cambio de capa si el usuario sacude el aparato de terminal, o gira el aparato provocando que cambien los ángulos de gi o, rodamiento y de derrape. Utilizando el comando de cambio de capa, el usuario es capaz de intercambiar la capa del objeto sobresaliente 20 (es decir, la capa Z+) con la capa dé la capa original (es decir, la capa ZO) entre si.
Los objetivos explicados con anterioridad podrían incluir el contenido tales como imágenes o fotos, o contenido de texto, aunque no son limitadas a las mismas. Por ejemplo, los objetos podrían incluir iconos. Es decir, una pluralidad de modos de toque es aplicable no sólo a la función de copiar y pegar, sino también al movimiento de los iconos del menú.
La Figura 10 ilustra un aparato de terminal de visualización 3D de acuerdo con una modalidad de la presente invención.
Con referencia a la Figura 10, varios iconos 80-1, 80-2,..., 80-12 son visualizados en la pantalla del aparato de terminal 100. Los iconos podrían corresponder con aplicaciones, o con las carpetas almacenadas en el aparato de terminal 100. Los iconos también podrían ser construidos en diferentes unidades de página, si existieran demasiados iconos para ser visualizados en una página. La Figura 10 ilustra un ejemplo en el cual son visualizados doce iconos en una pantalla.
Con referencia a la Figura 10, si un icono, por ejemplo, el segundo icono 80-2 es seleccionado por el toque directo "a" , el grado de profundidad percibida del segundo icono seleccionado 80-2 es ajustado y el segundo icono seleccionado 80-2 es visualizado como una imagen 3D. El segundo icono 80-2 en la posición original podria ser suprimido. Entonces, si el usuario se mantiene tocando directamente "a" en la pantalla y mueve su dedo en contacto hacia una dirección predeterminada con una velocidad o más establecida, las páginas son cambiadas de acuerdo con la dirección en donde se mueve el dedo, de modo que la siguiente página es visualizada. Es decir, es visualizada la página en la cual son visualizados los iconos .13vo y 18vo. Cuando la pantalla es cambiada, el usuario toca el segundo icono 80-2, que es sobresaliente, por medio del toque cercano "b" y mueve el segundo icono 80-2 junto al 18vo icono, y toca directamente "a" en la pantalla, de modo que el segundo icono 80-2 es visualizado junto, al 18vo icono. De este modo, el usuario podria colocar, de manera conveniente, los iconos en diferentes ubicaciones utilizando los toques directo y cercano.
Aunque en la descripción anterior el objeto seleccionado es visualizado en 3D en la dirección del eje Z+ o Z-, los objetos podrían ser divididos y visualizados, por métodos diferentes si el aparato no soporta la visualización 3D 0 si los datos no puede ser visualizados como una imagen 3D.
En forma alterna, si el objeto 10 es seleccionado de la pantalla 20, el tamaño de la pantalla actualmente visualizado 200 es reducido para que sea incluido en el área de una nueva pantalla 300, y la imagen 20 del objeto seleccionado 10 es nuevamente visualizada en un lado de la misma. Es decir, si la pantalla se encuentra en el plano X-Y, la imagen del objeto seleccionado 10 podría ser visualizada en la dirección del eje X o Y. En este estado, el usúario podría cambiar a una nueva pantalla tocando la pantalla reducida 200. En consecuencia, a medida que aparece una nueva pantalla, el usuario toca una imagen visualizada, por separado 20 y mueve la imagen 20 en la nueva pantalla, es decir, pega la imagen 20 en la nueva pantalla.
La Figura 12 ilustra un método para la manipulación de un aparato de terminal de visualización 3D de acuerdó con la presente invención. Con referencia a la Figura 12;;, en S1210, el aparato de terminal de visualización visualiz los objetos 3Ds con diferentes grados de profundidades percibidas, utilizando un método de visualización 3D.
El usuario manipula los objetos utilizando una pluralidad de modos de toque, que podrían ser percibidos por los grados de profundidades percibidas que corresponden, de manera respectiva, con los objetos. Por ejemplo, los modos de toque podrían incluir un modo de toque cercano en el cual el toque es percibido en una distancia predeterminada de la pantalla, o un modo de toque directo en el cual el toque directo en la pantalla es percibido. De manera adicional, los modos de toque podrían incluir un modo de presión en el cual el usuario . varía la presión del toque mientras se mantiene el contacto directo con la pantalla, o un modo de presión larga en el cual el usuario toca la pantalla durante la duración de tiempo. Én S1220, cuando el objeto es operado por los distintos modos de toque, el aparato de terminal de visualización 3D cambia el estado de visualización de acµerdo con la manipulación de usuario. Como resultado, las funciones tales como la copia y pegado o movimiento del icono son realizadas, de manera eficiente.
Como se explica con anterioridad, los objetos con el mismo grado de profundidad percibida son visualizados y uno de entre el objeto es seleccionado y visualizado como una imagen 3D. Sin embargo, otros ejemplos podrían i ser adecuadamente implementados . Por ejemplo, el aparato de terminal de visualización 3D podría visualizar los objetos con diferentes grados de profundidades percibidas, es decir, en el modo de visualización 3D, de acuerdo con los contenidos que están siendo visualizados. En este caso, el usuario podría seleccionar los respectivos objetos con los modos adecuados de toque que corresponden con los respectivos grados de profundidades percibidas, sin tener que seleccionar por separado los objetos.
La Figura 13 ilustra la operación de copiar y pegar de acuerdo con un método de operación de la presente invención.
Con referencia a la Figura 13, en S1310, los objetos son visualizados, en S1315, un objeto específico es seleccionado, y en S1320, un menú es visualizado en un lado del objeto seleccionado.
En S1325, si el usuario selecciona un menú de copia del menú visualizado, en S1330, el objeto seleccionado es sobresaliente en la dirección Z+ y es visualizado como una imagen 3D.
En adición, los otros objetos presentados en la pantalla existente también podrían ser activados para experimentar el mismo procesamiento, como es explicado con anterioridad en respuesta a un toque directo, para que de esta manera, sean agregados y visualizados como la imagen 3D. Es decir, puede existir una pluralidad de objetos que sobresalen en la dirección Z+.
En S1335, si es realizado un toque cercano con respecto a la imagen sobresaliente, el correspondiente objeto es operado de acuerdo con el estado del toque cercano.
Es decir, en S1340, si la porción activada por el toque cercano es movida mientras qué es mantenida la distancia, la ubicación en la cual la imagen sobresaliente es visualizada también es movida de acuerdo con la dirección y la distancia viajada por este movimiento.
Sin embargo, en S1345, si el toque directo es realizado cuando menos una imagen está sobresaliendo, la pantalla original, en lugar de la imagen sobre salida, es operada de acuerdo con el estado del toque directo. Es decir, en S1350, si se genera la necesidad de cambiar la pantalla para moverse hacia una nueva página o ejecutar una nueva aplicación, la pantalla es cambiada mientras que es mantenida la imagen sobresaliente.
El estado de los respectivos objetos es manipulado utilizando los modos de toque cercano o de toque directo" En S1355, si el usuario entra un toque directo mientras se mueve el objeto con el toque cercano, en S1360, el grado de profundidad percibida del objeto saliente es regresado al estado original, y el correspondiente objeto es pegado en un sitio en la pantalla actual en la cual es entrado el toque directo. Como resultado, el objeto seleccionado es copiado y visualizado en la nueva pantalla.
La Figura 14 ilustra un método de operación de acuerdo con la presente invención.
Con referencia a la Figura 14, en S1410, los objetos son visualizados, en S1420, un objeto específico es seleccionado, y en S1430, el grado de profundidad percibida del objeto seleccionado es ajustado y visualizado como una imagen 3D.
El objeto podría ser seleccionado utilizando un menú como se explica con anterioridad, o de acuerdo con un cambio en el movimiento del usuario después del toque, o simplemente por medio de un toque .
En S1440, si el usuario ingresa un comando para cambiar las capas cuando la pluralidad de objetos es visualizada como las imágenes 3D con diferentes grados de profundidades percibidas, en S1450, de acuerdo con el comando entrado de cambio de capa, las capas de la pantalla actual y el objeto saliente son cambiadas.
Como se explica con anterioridad, el usuario es capaz de manipular el objeto que existe en la capa superior tocando el objeto. El usuario podría entrar, de manera adicional, un comando de cambio de capa para manipular el objeto que existe en la capa inferior. Como resultado, el usuario puede entrar el comando de cambio de toque : capa según sea necesario hasta que sea obtenido el resultado pretendido, y podría ordenar el cambio de ubicación de visualización, la copia o el pegado de los respectivos objetos. En'S1460, si el usuario ingresa un comando de pegado o un comando para finalizar la visualización 3D, el procesamiento de visualización 3D podría ser completado. Un comando para finalizar el modo de visualización 3D podría ser implementado en varias formas tal como la selección de un menú específico visualizado en una pantalla, o varios modos de toques que incluyen un toque de presión larga o doble toque sobre el objeto visualizado 3D.
Como se explica con anterioridad, el usuario podría . manipular los objetos utilizando juntos el modo de cambio de capa y el modo de toque directo.
Mientras tanto, el método de operación de acuerdo con las modalidades de la presente invención podría ser implementado como código de programa y podría ser grabado en varios tipos de medios de grabación susceptibles de ser leídos por computadora. De manera específica, el método de operación en la presente podría ser escrito en varias formas de medios de grabación susceptibles de ser leídos en la terminal, tales como una Memoria de Acceso Aleatorio (RAM, por sus siglas en inglés), una Memoria flash, una Memoria Sólo de Lectura (ROM, por sus siglas , en inglés) , una ROM Susceptible de Ser Programada y Borrada (EPROM, por sus siglas en inglés) , una ROM Susceptible de Ser Programada y Borrada de Manera Electrónica (EEPROM, por sus siglas en inglés) , un registro, un disco duro, un disco removible, una tarjeta de memoria, una memoria USB, o un CD-ROM.
En consecuencia, un programa podría ser instalado ¦ para ejecutar el método de operación explicado con anterioridad en un aparato que podría ser conectado con los medios de grabación, o en el cual podrían ser cargados los medios de grabación.
En la presente invención como se explica con anterioridad, el usuario es capaz de seleccionar y utilizar los objetos tales como el contenido o los iconos en el aparato de terminal con una conveniencia mejorada.
Las modalidades y ventajas anteriores „ son simplemente ejemplos y no serán interpretadas como limitantes para el presente concepto inventivo. La presente enseñanza puede ser aplicada con rapidez a otros tipos de aparatos. Asimismo, se pretende que la descripción de las modalidades sea ilustrativa, y que no limite el alcance de ; las reivindicaciones, y muchas alternativas, modificaciones, y variaciones serán aparentes para aquellas personas expertas en la técnica.
Se hace constar que con relación a esta fecha el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (15)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un método para la operación de un aparato de terminal de visualización de tres dimensiones (3D) , caracterizado porque comprende: visualizar una pluralidad de objetos con diferentes grados de profundidades percibidas; y cambiar el estado de visualización de la pluralidad de objetos de acuerdo con la manipulación del usuario, en donde la manipulación del usuario incluye al menos uno de los modos de toque percibidos como profundidades diferentes que corresponden con el grado de las profundidades percibidas.
2. El método de conformidad con la reivindicación 1, caracterizado porque además comprende, antes de visualizar la pluralidad de objetos con diferentes grados de profundidades percibidas, visualizar los objetos con los mismos grados de profundidades percibidas; y ajustar, cuando un objeto es seleccionado de entre los objetos, el grado de profundidad percibida del objeto seleccionado.
3. El método de conformidad con la reivindicación 1, caracterizado porque además comprende, antes de visualizar la pluralidad de objetos con diferentes grados de profundidades percibidas ; visualizar las pantallas comprendidas de objetos con los mismos grados de profundidades percibidas; visualizar, cuando un objeto es seleccionado de las pantallas, una ventana de selección de menú en un lado del objeto seleccionado; y ajustar, cuando un menú de copia es seleccionado de la ventana de selección de menú, el grado de profundidad percibida del objeto seleccionado.
4. El método de conformidad con la reivindicación 1, caracterizado porque además comprende, antes de visualizar la pluralidad de objetos con diferentes grados de profundidades percibidas, visualizar una pantalla comprendida de objetos con los mismos grados de profundidades percibidas; y ajustar, cuando un objeto es tocado en la pantalla y el estado de toque gira en una dirección preestablecida;' o se mueve en un patrón preestablecido, el grado de profundidad percibida del objeto seleccionado.
5. El método de conformidad con la reivindicación 2, caracterizado porque el objeto con el grado ajustado de profundidad percibida es visualizado en un modo 3D cuando es sobresalido en una dirección vertical de la pantalla del aparato de terminal de visualización 3D, y al menos uno de los modos de toque incluye al menos uno de un modo de toque cercano para la selección del objeto saliente a una distancia de la pantalla, y un modo de toque directo para la selección del objeto visualizado en la pantalla por el toque directo.
6. El método de conformidad con la reivindicación 5, caracterizado porque cuando el objeto con el grado ajustado de profundidad percibida es visualizado que está siendo sobresalido de la pantalla, el objeto en la pantalla original desaparece.
7. El método de conformidad con la reivindicación 5, caracterizado porque el cambio del estado de visualización de la pluralidad de objetos de acuerdo con la manipulación del usuario comprende: cambiar, cuando el objeto saliente es seleccionado a una distancia de la pantalla que corresponde con el grado de la profundidad percibida del objeto saliente de acuerdo con el modo de toque cercano, y el sitio de la selección del objeto saliente sé mueve, la ubicación en la cual el objeto saliente es visualizado de acuerdo con el sitio movido.
8. El método de conformidad con la reivindicación 5, caracterizado porque el cambio del estado de visualización de la pluralidad de objetos de acuerdo con la manipulación del usuario comprende: cambiar, cuando el objeto seleccionado es sobresaliente y visualizado en un modo 3D, y la pantalla es directamente tocada, el estado de visualización de la pantalla de acuerdo con el estado de toque mientras se mantiene el' estado de visualización del objeto seleccionado; y regresar, cuando el estado de visualización de la pantalla es cambiado y el objeto seleccionado es seleccionado por el modo de toque cercano por el toque cercano y posteriormente es movido hacia un área en la pantalla cambiada y es directamente tocado, el grado de la profundidad percibida del objeto seleccionado hacia el estado original y pegar el objeto en el área tocada, en donde los objetos están contenidos.
9. El método de conformidad con la reivindicación 5, caracterizado porque el cambio del estado de visualización de la pluralidad de objetos de acuerdo con la manipulación del usuario comprende: cambiar, cuando el grado de profundidad percibida del objeto seleccionado es ajustado y es visualizada una pluralidad de objetos con diferentes grados de profundidades percibidas, y es entrado un comando de cambio de capá, el grado de la profundidad percibida del objeto saliente y el grado de la profundidad percibida del objeto en la pantalla entre sí, y además comprende visualizar un menú para entrar el comando de cambio de capa en un área en. la pantalla.
10. El método de conformidad con la reivindicación 8, caracterizado porque el cambio del estado de visualización de la pantalla de acuerdo con el estado de toque comprende: cambiar, cuando el objeto seleccionado es sobresaliente y visualizado en 3D, la pantalla es directamente tocada, y el sitio directamente tocado corresponde con un icono de aplicación, el estado de visualización de la pantalla a una pantalla de aplicación que corresponde con el icono de aplicación.
11. El método de conformidad con la reivindicación 5, caracterizado porque el cambio del estado de visualización de la pluralidad de objetos de acuerdo con la manipulación del usuario comprende: ajustar el grado de profundidad percibida del objeto seleccionado y visualizar el objeto seleccionado en aislamiento' de la pantalla original en una forma sobresaliente en 3D, y suprimir la visualización de objeto seleccionado de la pantalla original; y cambiar, cuando la pantalla es directamente tocada y el sitio tocado es movido hacia una dirección arbitraria con una velocidad que excede un umbral preestablecido, el estado de visualización de la pantalla cambiando una página á una siguiente página de acuerdo con la dirección arbitraria, mientras se mantiene el objeto que será visualizado en la forma sobresaliente, en donde los objetos son Iconos.
12. El método de conformidad con la reivindicación 1, caracterizado porque al menos uno de los modos de toque incluye al menos uno de un modo de toque cercano para seleccionar el objeto a una distancia de la pantalla, un modo de toque directo para la selección del objeto al tocar directamente la pantalla, un modo de presión para la selección del objeto al variar la presión de toque mientras se mantiene el contacto directo con la pantalla, y un modo de presión larga para la selección del objeto al variar la duración del toque director de la pantalla..
13. Un aparato de terminal de tres dimensiones (3D) , caracterizado porque comprende: una unidad de visualización que visualiza una pluralidad de objetos con el mismo grado de profundidad percibida,- una unidad de conversión que ajusta el grado de profundidad percibida de un objeto seleccionado de entre la pluralidad de objetos cuando un objeto es seleccionado e la pluralidad de objetos; y una unidad de control que percibe la manipulación de usuario de acuerdo con al menos uno de los modos de toque que perciben los toques de diferentes profundidades , que corresponden con los grados de profundidades percibidas de los respectivos objetos, y controla la unidad de visualización y la unidad de conversión para cambiar los estados de visualización de los objetos.
14. El aparato de terminal 3D de conformidad con la reivindicación 13, caracterizado porque la unidad de visualización visualiza una ventana de selección de menú en un lado de un objeto seleccionado cuando un objeto es seleccionado, y la unidad de control controla la unidad de conversión para ajustar el grado de profundidad percibida del objeto seleccionado, cuando un menú de copia es seleccionado de la ventana de selección de menú.
15. El aparato de terminal 3D de conformidad con la reivindicación 13, caracterizado porque la unidad de control controla la unidad de conversión para ajustar el grado de profundidad percibida de un objeto seleccionado, cuando el objeto seleccionado es tocado y el estado de toque gira en una dirección preestablecida o se mueve en un patrón preestablecido.
MX2013007308A 2010-12-24 2011-12-26 Aparato de terminal de visualizacion de tres dimensiones (3d) y metodo de operacion del mismo. MX2013007308A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100134784A KR101763263B1 (ko) 2010-12-24 2010-12-24 3d 디스플레이 단말 장치 및 그 조작 방법
PCT/KR2011/010125 WO2012087085A1 (en) 2010-12-24 2011-12-26 Three dimensional (3d) display terminal apparatus and operating method thereof

Publications (1)

Publication Number Publication Date
MX2013007308A true MX2013007308A (es) 2013-10-25

Family

ID=46314173

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013007308A MX2013007308A (es) 2010-12-24 2011-12-26 Aparato de terminal de visualizacion de tres dimensiones (3d) y metodo de operacion del mismo.

Country Status (11)

Country Link
US (1) US9495805B2 (es)
EP (1) EP2656318B1 (es)
JP (1) JP5968905B2 (es)
KR (1) KR101763263B1 (es)
CN (1) CN103282945B (es)
AU (1) AU2011345468B2 (es)
BR (1) BR112013009928A2 (es)
CA (1) CA2822760A1 (es)
MX (1) MX2013007308A (es)
RU (1) RU2616565C2 (es)
WO (1) WO2012087085A1 (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101969352B1 (ko) * 2012-09-11 2019-04-16 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102057583B1 (ko) 2012-10-08 2019-12-20 삼성디스플레이 주식회사 플렉서블 디스플레이 장치 및 그 구동 방법
JP6081324B2 (ja) * 2013-09-05 2017-02-15 シャープ株式会社 操作入力装置、携帯型情報端末、操作入力装置の制御方法、プログラム、及び記録媒体
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
KR102201733B1 (ko) * 2013-09-30 2021-01-12 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN103530799B (zh) * 2013-10-22 2017-07-11 惠州Tcl移动通信有限公司 根据3d图库实现掌上看房的浏览方法及3d看房系统
EP2887199B1 (en) * 2013-12-20 2020-06-03 Dassault Systèmes A device with a touch-sensitive display comprising a mecanism to copy and manipulate modeled objects
KR102214437B1 (ko) 2014-01-10 2021-02-10 삼성전자주식회사 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
KR102271853B1 (ko) * 2014-03-21 2021-07-01 삼성전자주식회사 전자 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
KR102366677B1 (ko) * 2014-08-02 2022-02-23 삼성전자주식회사 전자 장치 및 이의 사용자 인터렉션 방법
EP2990923A1 (en) 2014-08-28 2016-03-02 Samsung Electronics Co., Ltd Image display device and method
US11181637B2 (en) 2014-09-02 2021-11-23 FLIR Belgium BVBA Three dimensional target selection systems and methods
US9710724B2 (en) * 2014-09-05 2017-07-18 Intel Corporation Multi-camera device
WO2016051431A1 (ja) * 2014-09-30 2016-04-07 株式会社ブリリアントサービス 入出力装置、入出力プログラム、および入出力方法
CN106257389B (zh) * 2015-06-19 2019-08-06 深圳超多维科技有限公司 实现文件夹图标交互的方法及触控终端
CN106325650B (zh) * 2015-06-19 2019-12-10 深圳超多维科技有限公司 基于人机交互的3d动态显示方法及移动终端
CN106325654B (zh) * 2015-06-19 2019-09-10 深圳超多维科技有限公司 应用于触摸终端的3d界面切屏方法及触摸终端
CN106325652B (zh) * 2015-06-19 2019-12-10 深圳超多维科技有限公司 图形用户界面交互方法及触摸终端
US20170068374A1 (en) * 2015-09-09 2017-03-09 Microsoft Technology Licensing, Llc Changing an interaction layer on a graphical user interface
KR102413074B1 (ko) * 2015-09-21 2022-06-24 삼성전자주식회사 사용자 단말, 전자 장치 및 이들의 제어 방법
CN105208277A (zh) * 2015-09-29 2015-12-30 努比亚技术有限公司 一种移动终端及其相机调焦处理方法
KR102544716B1 (ko) 2016-03-25 2023-06-16 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
WO2017166218A1 (zh) * 2016-03-31 2017-10-05 华为技术有限公司 一种压力触控方法及电子设备
KR20170121554A (ko) 2016-04-25 2017-11-02 현대자동차주식회사 차량용 클러스터의 표시 제어 장치 및 그 방법
CN106293127B (zh) * 2016-08-10 2019-03-19 北京英梅吉科技有限公司 用于三维空间中的阵列式输入方法及系统
DK180127B1 (en) * 2017-05-16 2020-05-26 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR MOVING USER INTERFACE OBJECTS
KR102440291B1 (ko) * 2017-11-15 2022-09-07 삼성디스플레이 주식회사 전자장치 및 전자장치 제어방법
CN111712787B (zh) * 2018-05-21 2022-03-08 华为技术有限公司 一种显示控制方法及终端
CN109857288A (zh) * 2018-12-18 2019-06-07 维沃移动通信有限公司 一种显示方法及终端
KR102302498B1 (ko) * 2020-02-26 2021-09-14 이화여자대학교 산학협력단 스트레처블 디스플레이를 이용한 입체 컨텐츠 출력 장치 및 방법
CN115278202A (zh) * 2022-07-29 2022-11-01 联想(北京)有限公司 显示方法及装置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
EP0741885B1 (en) * 1994-01-27 2002-11-20 Minnesota Mining And Manufacturing Company Software notes
US5608850A (en) * 1994-04-14 1997-03-04 Xerox Corporation Transporting a display object coupled to a viewpoint within or between navigable workspaces
US5847709A (en) 1996-09-26 1998-12-08 Xerox Corporation 3-D document workspace with focus, immediate and tertiary spaces
JPH10105735A (ja) 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
JP2001209470A (ja) * 2000-01-26 2001-08-03 Fujitsu Ltd 表示インターフェイス方法及び装置並びにプログラム記憶媒体
US7266768B2 (en) * 2001-01-09 2007-09-04 Sharp Laboratories Of America, Inc. Systems and methods for manipulating electronic information using a three-dimensional iconic representation
TWI238348B (en) 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
JP2004070920A (ja) 2002-06-11 2004-03-04 Sony Computer Entertainment Inc 情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報処理方法、及び情報処理装置
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
US7178111B2 (en) * 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
JP4515458B2 (ja) * 2004-10-12 2010-07-28 日本電信電話株式会社 3次元ポインティング方法、3次元ポインティング装置、及び3次元ポインティングプログラム
JP4076090B2 (ja) 2005-04-14 2008-04-16 日本電信電話株式会社 画像表示システム
US7748634B1 (en) * 2006-03-29 2010-07-06 Amazon Technologies, Inc. Handheld electronic book reader device having dual displays
KR100823272B1 (ko) * 2006-06-26 2008-04-21 삼성전자주식회사 3차원 메뉴 표시 방법 및 장치와 그 방법을 수행하는프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
US8432365B2 (en) 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US9098647B2 (en) 2008-03-10 2015-08-04 Apple Inc. Dynamic viewing of a three dimensional space
EP2104024B1 (en) 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
KR101012379B1 (ko) 2008-03-25 2011-02-09 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
KR101469280B1 (ko) 2008-04-01 2014-12-04 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한그래픽 사용자 인터페이스 제공 방법
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
JP5203797B2 (ja) * 2008-05-13 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及び情報処理装置の表示情報編集方法
US8477139B2 (en) 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
EP2389767A4 (en) * 2009-01-20 2013-09-25 Lg Electronics Inc 3D SUBTITLE DISPLAY METHOD AND 3D SUBTITLE DISPLAY DEVICE FOR USING THIS METHOD
KR101544550B1 (ko) 2009-02-17 2015-08-13 엘지전자 주식회사 휴대 단말기 및 그 제어방법
KR20100101779A (ko) 2009-03-10 2010-09-20 엘지전자 주식회사 이동단말기 및 그 제어방법
JP5158606B2 (ja) 2009-04-23 2013-03-06 Necカシオモバイルコミュニケーションズ株式会社 端末装置、表示方法、及びプログラム
US8224392B2 (en) * 2009-04-29 2012-07-17 Lg Electronics Inc. Mobile terminal capable of recognizing fingernail touch and method of controlling the operation thereof
US9275680B2 (en) * 2009-06-16 2016-03-01 Microsoft Technology Licensing, Llc Viewer-centric user interface for stereoscopic cinema
US9021399B2 (en) * 2009-06-24 2015-04-28 Lg Electronics Inc. Stereoscopic image reproduction device and method for providing 3D user interface
JP4802267B2 (ja) 2009-09-07 2011-10-26 株式会社バンダイナムコゲームス 記憶媒体及び画像生成装置
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US9104275B2 (en) * 2009-10-20 2015-08-11 Lg Electronics Inc. Mobile terminal to display an object on a perceived 3D space
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101631451B1 (ko) * 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8854684B2 (en) * 2010-01-14 2014-10-07 Humaneyes Technologies Ltd. Lenticular image articles and method and apparatus of reducing banding artifacts in lenticular image articles
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20120075202A1 (en) * 2010-09-27 2012-03-29 Avaya Inc. Extending the touchable area of a touch screen beyond the borders of the screen

Also Published As

Publication number Publication date
EP2656318B1 (en) 2017-12-13
EP2656318A1 (en) 2013-10-30
CN103282945A (zh) 2013-09-04
WO2012087085A1 (en) 2012-06-28
CA2822760A1 (en) 2012-06-28
CN103282945B (zh) 2016-08-10
RU2013134461A (ru) 2015-01-27
AU2011345468B2 (en) 2015-02-26
BR112013009928A2 (pt) 2016-08-02
US9495805B2 (en) 2016-11-15
RU2616565C2 (ru) 2017-04-17
JP5968905B2 (ja) 2016-08-10
US20120162213A1 (en) 2012-06-28
EP2656318A4 (en) 2016-04-27
JP2014507701A (ja) 2014-03-27
AU2011345468A1 (en) 2013-04-18
KR101763263B1 (ko) 2017-07-31
KR20120072867A (ko) 2012-07-04

Similar Documents

Publication Publication Date Title
MX2013007308A (es) Aparato de terminal de visualizacion de tres dimensiones (3d) y metodo de operacion del mismo.
US9674445B2 (en) Portable apparatus and method for taking a photograph by using widget
RU2524834C2 (ru) Устройство для автостереоскопического рендеринга и отображения
US9207859B2 (en) Method and mobile terminal for displaying fixed objects independent of shifting background images on a touchscreen
EP2372515A2 (en) Mobile terminal and image display controlling method thereof
KR20150010432A (ko) 디스플레이 디바이스 및 그 제어 방법
RU2623201C2 (ru) Мобильное устройство отображения
AU2012209590B2 (en) Mobile apparatus displaying a 3D image comprising a plurality of layers and display method thereof
JP2013016018A (ja) 表示制御装置、制御方法及びプログラム
KR20130071924A (ko) 이동 단말기 및 그것의 제어 방법
KR20140125597A (ko) 디지털 디바이스 및 그 제어 방법
TW201606622A (zh) 透過觸覺互動的內容屬性可及性偵測
JP5868044B2 (ja) 情報処理装置及びその制御方法、プログラム、コンピュータが読み取り可能なプログラム記憶媒体
EP2521019A1 (en) Systems and methods for interface management
CN103809895A (zh) 一种可动态生成按键的移动终端及方法
JP2012247838A (ja) 表示装置、表示制御方法及びプログラム
KR101978760B1 (ko) 3차원 이미지의 표시 기능을 구비한 단말기에서 사용자 인터페이스 방법 및 장치
KR101546598B1 (ko) 사용자 인터페이스와 연관된 아이콘들의 3-차원적 다중-깊이 프리젠테이션
KR101723413B1 (ko) 이동 단말기 및 그 제어방법
US20150042621A1 (en) Method and apparatus for controlling 3d object
US20150135102A1 (en) Method of managing digital image, computer readable storage medium recording the method, and digital image managing electronic apparatus
KR20140019742A (ko) Gui를 가지는 장치 및 방법

Legal Events

Date Code Title Description
FG Grant or registration