ES2821892T3 - Dispositivo de visualización y procedimiento de operación del mismo - Google Patents

Dispositivo de visualización y procedimiento de operación del mismo Download PDF

Info

Publication number
ES2821892T3
ES2821892T3 ES16150471T ES16150471T ES2821892T3 ES 2821892 T3 ES2821892 T3 ES 2821892T3 ES 16150471 T ES16150471 T ES 16150471T ES 16150471 T ES16150471 T ES 16150471T ES 2821892 T3 ES2821892 T3 ES 2821892T3
Authority
ES
Spain
Prior art keywords
display
image
display device
region
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16150471T
Other languages
English (en)
Inventor
Shi-Yun Cho
So-Young Kim
Woo-Ram Jeon
Youn-Ho Choi
Dae-Myung Kim
Kyung-Wan Park
Jae-Young Huh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2821892T3 publication Critical patent/ES2821892T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/301Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements flexible foldable or roll-able electronic displays, e.g. thin LCD, OLED
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of El Displays (AREA)
  • Electroluminescent Light Sources (AREA)
  • Telephone Function (AREA)

Abstract

Un dispositivo (100) de visualización que comprende: un visualizador (290); una cámara (250) configurada para capturar una imagen, disponiéndose la cámara en una misma dirección con el visualizador; un sensor (270) configurado para detectar un movimiento de flexión o un estado plegado del dispositivo de visualización; y una unidad (210) de control configurada para controlar el visualizador para visualizar una imagen de previsualización para capturar una imagen usando la cámara en una región del visualizador que está dividida por una bisagra cuando el sensor detecta el movimiento de flexión, caracterizado porque la unidad de control está configurada adicionalmente para reconocer un ojo de un usuario, que está incluido en la imagen de previsualización, y para determinar una posición de una pupila en el ojo del usuario y para generar una imagen fija capturada por la cámara en un punto de tiempo en el que la posición de la pupila satisface una condición preestablecida.

Description

DESCRIPCIÓN
Dispositivo de visualización y procedimiento de operación del mismo
Referencia cruzada a solicitudes relacionadas
Esta solicitud reivindica el beneficio de Solicitud Provisional de Estados Unidos N.° 62/100.614, presentada el 7 de enero de 2015, Solicitud Provisional de Estados Unidos N.° 62/102.232, presentada el 12 de enero de 2015, en la Oficina de Patentes y Marcas de Estados Unidos, Solicitud de Patente de Corea N.° 10-2015-0086424, presentada el 18 de junio de 2015 y Solicitud de Patente de Corea N.° 10-2016-0001623, presentada el 6 de enero de 2016 en la Oficina de Propiedad Intelectual de Corea.
Antecedentes
1. Campo
Realizaciones ilustrativas consistentes con la presente divulgación se refieren a un dispositivo de visualización de visualización de una imagen y un procedimiento por el cual el dispositivo de visualización opera para visualizar una imagen.
2. Descripción de la técnica relacionada
Junto con el desarrollo de la tecnología de visualización, se han desarrollado diversos dispositivos de visualización de visualización de una imagen. Además, junto con el desarrollo de la tecnología de visualización, se incluyen una pluralidad de visualizadores en un dispositivo de visualización, o se han desarrollado dispositivos flexibles, paneles de visualización transparentes y similares. Un visualizador flexible indica un dispositivo de visualización que se puede doblar.
Además, junto con el desarrollo de tecnología, se proporcionan diversas funciones a un usuario usando un dispositivo de visualización. Por ejemplo, el usuario puede tomar una instantánea, buscar información y similares usando el dispositivo de visualización. Por lo tanto, se demandan un dispositivo de visualización que habilita que un usuario use convenientemente funciones del dispositivo de visualización y un procedimiento de operación del mismo. El documento US 2013/176248 desvela un dispositivo de visualización plegado que se puede doblar con una cámara, en el que se visualiza una imagen de previsualización del usuario y se reconoce la cara del usuario.
Sumario
La presente invención se define en las reivindicaciones independientes. Cualquier ejemplo y realización de la descripción que no pertenece al ámbito de las reivindicaciones no forman parte de la invención y se proporcionan únicamente para fines de ilustración.
Se proporcionan un dispositivo de visualización y un procedimiento de operación del mismo.
Se proporciona un medio de grabación legible por ordenador no transitorio que tiene grabado en el mismo un programa legible por ordenador de realización del procedimiento.
Aspectos adicionales se expondrán en parte en la descripción que sigue y, en parte, serán evidentes a partir de la descripción, o se pueden aprender mediante la puesta en práctica de las realizaciones ilustrativas presentadas. Breve descripción de los dibujos
Estos y/u otros aspectos serán evidentes y se apreciarán más rápidamente a partir de la siguiente descripción de las realizaciones ilustrativas, tomadas en conjunto con los dibujos adjuntos en los que:
la Figura 1 ilustra un diagrama de bloques de un dispositivo de visualización de acuerdo con una realización ilustrativa;
la Figura 2 ilustra un diagrama de bloques esquemático del dispositivo de visualización de acuerdo con una realización ilustrativa;
la Figura 3 ilustra un diagrama de flujo de un procedimiento en el que opera el dispositivo de visualización, de acuerdo con una realización ilustrativa;
la Figura 4 ilustra un ejemplo en el que el dispositivo de visualización visualiza una imagen, de acuerdo con una realización ilustrativa; las Figuras 5A a 6B ilustran ejemplos en los que el dispositivo de visualización visualiza una imagen, de acuerdo con una o más otras realizaciones ilustrativas;
la Figura 7 ilustra un diagrama de flujo de un procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con otra realización ilustrativa;
la Figura 8 ilustra una imagen de previsualización visualizada por el dispositivo de visualización;
la Figura 9 ilustra un diagrama de flujo de un procedimiento en el que el dispositivo de visualización captura una imagen, de acuerdo con una realización ilustrativa;
la Figura 10A ilustra un ejemplo de descripción de un procedimiento por el cual el dispositivo de visualización determina un punto de tiempo de captura de imagen usando reconocimiento de pupila, de acuerdo con una realización ilustrativa;
la Figura 10B ilustra un ejemplo en el que el dispositivo de visualización visualiza una imagen fija, de acuerdo con una realización ilustrativa;
la Figura 11 ilustra una estructura del dispositivo de visualización, de acuerdo con una realización ilustrativa; la Figura 12 ilustra una estructura del dispositivo de visualización, de acuerdo con otra realización ilustrativa; la Figura 13 ilustra un diagrama de flujo de un procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con otra realización ilustrativa;
la Figura 14 ilustra una región en la que se visualiza una imagen de previsualización, de acuerdo con una o más realizaciones ilustrativas;
la Figura 15A ilustra un diagrama de flujo de un procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas;
la Figura 15B ilustra el procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas;
las Figuras 16A y 16B ilustran el procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas;
las Figuras 17 a 19 ilustran el procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas;
la Figura 20 ilustra el procedimiento en el que el dispositivo de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas;
las Figuras 21 y 22 ilustran un procedimiento en el que el dispositivo de visualización visualiza una interfaz de usuario, de acuerdo con una realización ilustrativa;
las Figuras 23 a 27 ilustran un procedimiento en el que el dispositivo de visualización visualiza una interfaz de usuario cuando se detecta un movimiento de flexión, de acuerdo con una realización ilustrativa; y
la Figura 28 ilustra una carcasa montable en el dispositivo de visualización, de acuerdo con una realización ilustrativa.
Descripción detallada
Se hará ahora referencia en detalle a realizaciones ilustrativas, cuyos ejemplos se ilustran en los dibujos adjuntos. En los dibujos, se omiten partes irrelevantes para la descripción para describir claramente las realizaciones ilustrativas, y números de referencia similares indican elementos similares a lo largo de toda la memoria descriptiva. En este sentido, las presentes realizaciones ilustrativas pueden tener diferentes formas y no deberían interpretarse como limitadas a las descripciones expuestas en el presente documento. Por consiguiente, las realizaciones ilustrativas se describen solamente a continuación, haciendo referencia a las Figuras, para explicar aspectos. Como se usa en el presente documento, expresiones tales como "al menos uno de", cuando preceden una lista de elementos, modifican toda la lista de elementos y no modifican los elementos individuales de la lista.
A lo largo de toda la memoria descriptiva, cuando se describe que una cierta parte se "conecta" a otra parte, debería entenderse que la cierta parte puede "conectarse directamente" a otra parte o "conectarse eléctricamente" a otra parte a través de otro elemento en medio. Además, cuando un componente "incluye" un elemento, a no ser que haya otra descripción opuesta al mismo, debería entenderse que el componente no excluye otro elemento pero puede incluir adicionalmente otro elemento.
En la memoria descriptiva, el término "toque" o "entrada táctil" puede indicar un contacto directo o un caso en el que un dispositivo de visualización detecta un cuerpo de un usuario que se acerca al dispositivo de visualización (por ejemplo, dentro de 2 cm).
En la memoria descriptiva, el término "flexión" indica un caso en el que un dispositivo de visualización se dobla debido a una aplicación de una fuerza externa o está en un estado doblado debido a una aplicación de una fuerza externa. Además, la expresión "movimiento de flexión" indica un movimiento de doblar un dispositivo de visualización. De acuerdo con las realizaciones ilustrativas, pueden existir diversos movimientos de flexión. Por ejemplo, un movimiento de flexión de acuerdo con una realización ilustrativa puede incluir la flexión de un dispositivo de visualización usando una bisagra del dispositivo de visualización y todos los movimientos de flexión de un dispositivo de visualización debido a un gesto de plegado, un gesto de enrollado, un gesto de agitación, un gesto de aleteo, un gesto de flexión y similares de un usuario.
En lo sucesivo, las realizaciones ilustrativas se describen en detalle con referencia a los dibujos adjuntos.
La Figura 1 ilustra un diagrama de bloques de un dispositivo 100 de visualización de acuerdo con una realización ilustrativa. El dispositivo 100 de visualización mostrado en la Figura 1 es únicamente ilustrativo, y el dispositivo 100 de visualización de acuerdo con la presente realización ilustrativa puede incluir más o menos componentes que los componentes mostrados.
El dispositivo 100 de visualización puede conectarse a dispositivos externos (no mostrados) a través de un módulo 120 de comunicación móvil, un módulo 130 de subcomunicación y un conector 165. Los dispositivos externos pueden incluir al menos uno de otro dispositivo (no mostrado), un teléfono celular (no mostrado), un teléfono inteligente (no mostrado), un ordenador personal de tableta (PC) (no mostrado) y un servidor (no mostrado), pero no se limitan a los mismos.
Haciendo referencia a la Figura 1, el dispositivo 100 de visualización puede incluir un visualizador 190. Además, el dispositivo 100 de visualización puede incluir una unidad 110 de control, el módulo 120 de comunicación móvil, el módulo 130 de subcomunicación, un módulo 140 multimedia, un módulo 150 de cámara, un módulo 160 de entrada y salida, un módulo 170 de sensor, una unidad 175 de almacenamiento y una unidad 180 de fuente de alimentación. El módulo 130 de subcomunicación puede incluir al menos uno de un módulo 131 de red de área local inalámbrica (WLAN) y un módulo 132 de comunicación de corto alcance, y el módulo 140 multimedia puede incluir al menos uno de un módulo 141 de comunicación de difusión, un módulo 142 de reproducción de audio y un módulo 143 de reproducción de vídeo. El módulo 160 de entrada y salida puede incluir al menos uno de un botón 161, un micrófono 162, un altavoz 163, un motor 164 de vibración, un conector 165 y un teclado 166. Cada uno de los módulos anteriormente mencionados se implementan en hardware, en una realización ilustrativa. En otra realización ilustrativa, los módulos anteriormente mencionados se implementan en una mezcla de hardware y software o se implementan todos en software.
La unidad 110 de control puede incluir una unidad 111 de procesamiento central (CPU), una memoria 112 de solo lectura (ROM) de almacenamiento de un programa de control para el control del dispositivo 100 de visualización y una memoria 113 de acceso aleatorio (RAM) usada para memorizar una señal o datos introducidos desde el exterior del dispositivo 100 de visualización o usada como una región de memoria para una operación realizada por el dispositivo 100 de visualización. La CPU 111 puede incluir un procesador de un solo núcleo o un procesador de múltiples núcleos tal como a procesador de doble núcleo, un procesador triple núcleo, o un procesador de cuatro núcleos. La CPU 111, la ROM 112 y la RAM 113 pueden interconectarse a través de un bus interno.
La unidad 110 de control puede controlar el módulo 120 de comunicación móvil, el módulo 130 de subcomunicación, el módulo 140 multimedia, el módulo 150 de cámara, el módulo 160 de entrada y salida, el módulo 170 de sensor, la unidad 175 de almacenamiento, la unidad 180 de fuente de alimentación y el visualizador 190.
El módulo 120 de comunicación móvil puede conectar el dispositivo 100 de visualización a un dispositivo externo a través de comunicación móvil usando al menos una antena (no mostrada) bajo el control de la unidad 110 de control. El módulo 120 de comunicación móvil puede transmitir/recibir una señal inalámbrica para transmisión/recepción de una llamada de voz, una llamada de vídeo, un mensaje de texto (servicio de mensajes cortos (SMS)), o un mensaje multimedia (servicio de mensaje multimedia (MMS)) a/desde un teléfono celular (no mostrado), un teléfono inteligente (no mostrado), un PC de tableta (no mostrado) u otro dispositivo (no mostrado) que tiene número de teléfono introducido en el dispositivo 100 de visualización.
El módulo 130 de subcomunicación puede incluir al menos uno del módulo 131 de WLAN y el módulo 132 de comunicación de corto alcance. Por ejemplo, el módulo 130 de subcomunicación puede incluir únicamente el módulo 131 de WLAN, únicamente el módulo 132 de comunicación de corto alcance o tanto el módulo 131 de WLAN como el módulo 132 de comunicación de corto alcance.
El módulo 131 de WLAN puede conectarse, bajo el control de la unidad 110 de control, a la Internet en un sitio en el que se instala un punto de acceso inalámbrico (AP). El módulo 131 de WLAN puede soportar una norma de WLAN IEEE802.11x de El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). El módulo 132 de comunicación de corto alcance puede realizar comunicación de corto alcance entre el dispositivo 100 de visualización y un aparato de formación de imágenes (no mostrado) de una manera inalámbrica bajo el control de la unidad 110 de control. Esquemas de comunicación de corto alcance pueden incluir Bluetooth, Asociación de Datos Infrarrojos (IrDA), Zigbee y similares.
El dispositivo 100 de visualización puede incluir al menos uno del módulo 120 de comunicación móvil, el módulo 131 de WLAN y el módulo 132 de comunicación de corto alcance de acuerdo con el rendimiento de los mismos.
El módulo 140 multimedia puede incluir al menos uno del módulo 141 de comunicación de difusión, el módulo 142 de reproducción de audio y el módulo 143 de reproducción de vídeo. El módulo 141 de comunicación de difusión puede recibir una señal de difusión (por ejemplo, una señal de difusión de televisión (TV), una señal de difusión de radio o una señal de difusión de datos) y difundir información adicional (por ejemplo, guía eléctrica de programa (EPG) o guía eléctrica de servicio (ESG)) transmitida desde una estación de difusión a través de una antena de comunicación de difusión (no mostrada) bajo el control de la unidad 110 de control. El módulo 142 de reproducción de audio puede reproducir un archivo de audio digital almacenado o recibido bajo el control de la unidad 110 de control. El módulo 143 de reproducción de vídeo puede reproducir un archivo de vídeo digital almacenado o recibido bajo el control de la unidad 110 de control. El módulo 143 de reproducción de vídeo puede reproducir un archivo de audio digital. El módulo 140 multimedia puede incluir el módulo 142 de reproducción de audio y el módulo 143 de reproducción de vídeo excepto por el módulo 141 de comunicación de difusión. Además, el módulo 142 de reproducción de audio o el módulo 143 de reproducción de vídeo puede incluirse en la unidad 110 de control.
El módulo 150 de cámara puede capturar una imagen fija o un vídeo bajo el control de la unidad 110 de control. El módulo 150 de cámara puede incluir al menos una cámara configurada para capturar una imagen fija o un vídeo. Además, el módulo 150 de cámara puede incluir un sensor de imagen configurado para adquirir una imagen y generar una señal de imagen a base de la imagen adquirida. Además, el módulo 150 de cámara puede incluir una fuente de luz auxiliar (no mostrada) configurada para proporcionar luz requerida para la captura. Cuando el módulo 150 de cámara incluye una pluralidad de cámaras, puede disponerse una cámara en la superficie frontal del dispositivo 100 de visualización y puede disponerse otra cámara en la superficie trasera del dispositivo 100 de visualización. Como alternativa, pueden disponerse una pluralidad de cámaras para estar adyacentes entre sí (por ejemplo, con un intervalo de 1 cm a 8 cm) y capturar una imagen fija en tres dimensiones (3D) o un vídeo 3D.
El módulo 160 de entrada y salida puede incluir al menos uno de una pluralidad de botones 161, el micrófono 162, el altavoz 163, el motor 164 de vibración, el conector 165 y el teclado 166.
El botón 161 puede formarse en la superficie frontal, superficies laterales o la superficie trasera de un alojamiento del dispositivo 100 de visualización y puede incluir al menos uno de un botón de encendido/bloqueo (no mostrado), un botón de volumen (no mostrado), un botón de menú (no mostrado), un botón de inicio (no mostrado), un botón de volver (no mostrado) y un botón de buscar (no mostrado).
El micrófono 162 puede recibir una voz o un sonido y generar una señal eléctrica bajo un control de la unidad 110 de control.
El altavoz 163 puede emitir un sonido que corresponde a diversas señales del módulo 120 de comunicación móvil, el módulo 130 de subcomunicación, el módulo 140 multimedia o el módulo 150 de cámara al exterior del dispositivo 100 de visualización bajo el control de la unidad 110 de control. El altavoz 163 puede emitir un sonido que corresponde a una función realizada por el dispositivo 100 de visualización. El altavoz 163 puede formarse uno o plurales en número en una ubicación apropiada o ubicaciones apropiadas del alojamiento del dispositivo 100 de visualización.
El motor 164 de vibración puede convertir una señal eléctrica en vibraciones mecánicas bajo el control de la unidad 110 de control. Por ejemplo, cuando se recibe una llamada de voz desde otro dispositivo (no mostrado), el dispositivo 100 de visualización en un modo de vibración puede operar el motor 164 de vibración.
El conector 165 puede usarse como una interfaz de conexión del dispositivo 100 de visualización a un dispositivo externo (no mostrado) o una fuente de alimentación (no mostrada). Datos almacenados en la unidad 175 de almacenamiento del dispositivo 100 de visualización pueden transmitirse a un dispositivo externo (no mostrado) o pueden recibirse datos desde un dispositivo externo (no mostrado) a través de un cable de alambre conectado al conector 165 bajo el control de la unidad 110 de control. A través del cable de alambre conectado al conector 165, puede introducirse potencia desde una fuente de alimentación (no mostrada) o puede cargarse una batería (no mostrada). El teclado 166 puede recibir una entrada de tecla desde un usuario para controlar el dispositivo 100 de visualización. El teclado 166 puede incluir un teclado físico (no mostrado) formado en el dispositivo 100 de visualización y un teclado virtual visualizado en el dispositivo 100 de visualización. El teclado físico formado en el dispositivo 100 de visualización puede no incluirse de acuerdo con el rendimiento o una estructura del dispositivo 100 de visualización.
El módulo 170 de sensor puede incluir al menos un sensor configurado para detectar un estado del dispositivo 100 de visualización. Por ejemplo, el módulo 170 de sensor puede incluir al menos uno de un sensor de proximidad (no mostrado) configurado para detectar al usuario aproximándose al dispositivo 100 de visualización, un sensor de iluminancia (no mostrado) configurado para detectar la intensidad de la luz ambiente y un sensor de movimiento (no mostrado) configurado para detectar una operación del dispositivo 100 de visualización (por ejemplo, una rotación del dispositivo 100 de visualización o una aceleración o vibraciones aplicadas al dispositivo 100 de visualización). Pueden añadirse o eliminarse sensores del módulo 170 de sensor de acuerdo con las funciones deseadas o rendimiento del dispositivo 100 de visualización.
La unidad 175 de almacenamiento puede almacenar una señal de entrada y/o salida o datos correspondientes a una operación del módulo 120 de comunicación móvil, el módulo 130 de subcomunicación, el módulo 140 multimedia, el módulo 150 de cámara, el módulo 160 de entrada y salida, el módulo 170 de sensor y el visualizador 190 bajo el control de la unidad 110 de control. La unidad 175 de almacenamiento puede almacenar un programa de control y aplicaciones de control del dispositivo 100 de visualización o la unidad 110 de control.
La expresión "unidad de almacenamiento" puede incluir la unidad 175 de almacenamiento, la ROM 112 y la RAM 113 en la unidad 110 de control, o una tarjeta de memoria (no mostrada) insertada en el dispositivo 100 de visualización. La unidad de almacenamiento puede incluir una memoria no volátil, una memoria volátil, una unidad de disco duro (HDD) o un disco de estado sólido (SSD).
La unidad 180 de fuente de alimentación puede suministrar potencia a al menos una batería (no mostrada) dispuesta en el alojamiento del dispositivo 100 de visualización bajo el control del controlador 110. Además, la unidad 180 de fuente de alimentación puede suministrar, a cada parte del dispositivo 100 de visualización, potencia introducida desde una fuente de alimentación externa (no mostrada) a través de un cable de alambre conectado al conector 165.
El visualizador 190 puede emitir una imagen de pantalla (es decir, una imagen de salida) que corresponde a diversos servicios al usuario. La imagen de pantalla visualizada en el visualizador 190 puede incluir una imagen capturada usando el módulo 150 de cámara, una interfaz de usuario de provisión de un servicio y similares. Además, de acuerdo con una realización ilustrativa, el visualizador 190 puede incluir un visualizador flexible que se puede doblar de acuerdo con una fuerza aplicada para provocar un movimiento de flexión del alojamiento del dispositivo 100 de visualización. Además, de acuerdo con otra realización ilustrativa, el visualizador 190 puede incluir una pluralidad de módulos. Por ejemplo, el visualizador 190 puede incluir un primer visualizador y un segundo visualizador. Además, de acuerdo con una o más realizaciones ilustrativas, el visualizador 190 puede incluir una pantalla táctil y un controlador de pantalla táctil. La pantalla táctil puede transmitir una señal analógica que corresponde a al menos un toque introducido en la interfaz de usuario al controlador de pantalla táctil. La pantalla táctil puede recibir al menos una entrada táctil por medio de una parte del cuerpo (por ejemplo, un dedo) del usuario o un medio de entrada táctil (por ejemplo, un lápiz óptico). Además, la pantalla táctil puede transmitir una señal analógica que corresponde a un movimiento continuo de una entrada táctil al controlador de pantalla táctil. La pantalla táctil puede implementarse, por ejemplo, mediante un esquema de revestimiento resistivo, un esquema capacitivo, un esquema de infrarrojos o un esquema de ondas de ultrasonidos. El controlador de pantalla táctil puede convertir la señal analógica recibida desde la pantalla táctil en una señal digital (por ejemplo, un valor de coordenada X o un valor de coordenada Y) y transmitir la señal digital a la unidad 110 de control. La unidad 110 de control puede controlar la pantalla táctil usando la señal digital recibida desde el controlador de pantalla táctil.
La Figura 2 ilustra un diagrama de bloques esquemático del dispositivo 100 de visualización de acuerdo con una realización ilustrativa. La Figura 2 únicamente ilustra el dispositivo 100 de visualización de acuerdo con una realización ilustrativa, y el dispositivo 100 de visualización de acuerdo con la presente realización ilustrativa puede incluir más o menos componentes que los componentes mostrados.
El dispositivo 100 de visualización puede incluir un visualizador 290 configurado para emitir una imagen de pantalla, un sensor 250 de imagen configurado para adquirir una señal de imagen, un sensor 270 de detección de flexión configurado para detectar un movimiento de flexión o un estado doblado y una unidad 210 de control configurada para controlar cada componente del dispositivo 100 de visualización. Cuando el dispositivo 100 de visualización no puede doblarse, el sensor 270 de detección de flexión puede no incluirse en el dispositivo 100 de visualización. De acuerdo con una realización ilustrativa, el sensor 250 de imagen puede incluirse en el módulo 150 de cámara de la Figura 1. El sensor 250 de imagen incluye un dispositivo de generación de una señal de imagen acumulando una imagen enfocada en un sensor, por ejemplo, un sensor de imagen de dispositivo de acoplamiento de carga (CCD) o un sensor de imagen de semiconductor de óxido metálico complementario (CMOS), en elementos de detección incluidos en el sensor como un paquete de carga.
El visualizador 290 puede visualizar una imagen de pantalla que incluye información de imagen a proporcionar al usuario. Por ejemplo, el visualizador 290 puede visualizar una imagen de previsualización generada a base de una señal de imagen adquirida por el sensor 250 de imagen. La imagen de previsualización indica una imagen visualizada para que el usuario compruebe por adelantado, una imagen a adquirir durante la captura de una imagen fija o un vídeo cuando el usuario captura una imagen fija o un vídeo. La imagen de previsualización puede ser una imagen en tiempo real adquirida por el sensor 250 de imagen, pero no se limita a la misma. Como alternativa, el visualizador 290 puede visualizar una interfaz de usuario a través de la cual el usuario recibe un servicio desde el dispositivo 100 de visualización o contenido de imagen. Sin embargo, el visualizador 290 no se limita a los ejemplos descritos anteriormente.
El sensor 270 de detección de flexión indica un sensor configurado para detectar un movimiento de flexión o un estado doblado del dispositivo 100 de visualización. Información adquirida por la unidad 210 de control de acuerdo con detección de un movimiento de flexión o un estado doblado por el sensor 270 de detección de flexión puede variar de acuerdo con las realizaciones ilustrativas. Por ejemplo, cuando únicamente se puede doblar una porción parcial del dispositivo 100 de visualización usando una bisagra o similar, la unidad 210 de control puede determinar si se ha producido un movimiento de flexión o doblado usando el sensor 270 de detección de flexión. Como alternativa, la unidad 210 de control puede determinar si se ha producido un movimiento de flexión o un estado doblado y existe un ángulo de flexión (por ejemplo, 10°, 20° o similar) del dispositivo 100 de visualización de acuerdo con el movimiento de flexión usando el sensor 270 de detección de flexión. Como otro ejemplo, cuando todas las partes del dispositivo 100 de visualización se pueden doblar usando un visualizador flexible, la unidad 210 de control puede adquirir adicionalmente información acerca de una posición desde la que se detecta un movimiento de flexión o un estado doblado. Sin embargo, la presente realización ilustrativa no se limita a lo mismo.
De acuerdo con una realización ilustrativa, la unidad 210 de control puede determinar una región en la que tiene que visualizarse una imagen en el visualizador 290 y controlar el visualizador 290 para visualizar la imagen en la región determinada. Por ejemplo, cuando el dispositivo 100 de visualización visualiza una imagen de previsualización para capturar una imagen fija o un vídeo, la unidad 210 de control puede controlar el visualizador 290 para visualizar una imagen de previsualización en una región parcial alrededor de una posición en la que una lente (no mostrada) del módulo 150 de cámara de la Figura 1 de modo que el usuario comprueba fácilmente la imagen de previsualización. Como otro ejemplo, cuando se detecta un movimiento de flexión o un estado doblado por el sensor 270 de detección de flexión del dispositivo 100 de visualización, la unidad 210 de control puede controlar el visualizador 290 para visualizar una imagen en una cualquiera de las regiones divididas a base de un punto en el que el dispositivo 100 de visualización está doblado.
La Figura 3 ilustra un diagrama de flujo de un procedimiento en el que opera el dispositivo 100 de visualización, de acuerdo con una realización ilustrativa. El procedimiento de la Figura 3 se refiere a una operación de visualización de una imagen de previsualización entre operaciones del dispositivo 100 de visualización. De acuerdo con las realizaciones ilustrativas, una región de previsualización del procedimiento descrito con referencia a la Figura 3 puede sustituirse por otra región.
En la operación S310, el dispositivo 100 de visualización puede adquirir una imagen a visualizar y generar una señal de imagen. De acuerdo con una realización ilustrativa, cuando el dispositivo 100 de visualización se puede doblar, en respuesta a la detección de un movimiento de flexión o un estado doblado del dispositivo 100 de visualización, el dispositivo 100 de visualización puede realizar la operación S310. Por ejemplo, cuando el usuario dobla el dispositivo 100 de visualización, el dispositivo 100 de visualización puede ejecutar una aplicación de captura de imagen y generar una imagen de previsualización. Como otro ejemplo, cuando el dispositivo 100 de visualización no puede doblarse, el dispositivo 100 de visualización puede adquirir una imagen de previsualización ejecutando la aplicación de captura de imagen a base de una entrada de usuario a través de la pantalla táctil. Sin embargo, la presente realización no se limita a lo mismo.
En la operación S320, el dispositivo 100 de visualización puede determinar una región en la que tiene que visualizarse una imagen. Es decir, cuando se ejecutan la aplicación de captura de imagen y se adquiere una imagen de previsualización en la operación S310, el dispositivo 100 de visualización puede determinar una región de previsualización. La región de previsualización puede indicar una región en la que se visualiza una imagen de previsualización. Por ejemplo, cuando el dispositivo 100 de visualización está doblado, el dispositivo 100 de visualización puede determinar al menos una porción de una región dispuesta en un extremo superior de un punto en el que el dispositivo 100 de visualización está doblado como la región de previsualización entre toda la región de un visualizador incluida en el dispositivo 100 de visualización. Un procedimiento de determinación de una región en la que tiene que visualizarse una imagen puede implementarse de diferentes formas de acuerdo con las realizaciones ilustrativas.
En la operación S330, el dispositivo 100 de visualización puede visualizar una imagen en la región determinada (por ejemplo, la región de previsualización). En el presente documento, el dispositivo 100 de visualización puede visualizar una interfaz de usuario o similar en una región excepto para la región en la que se visualiza la imagen. La Figura 4 ilustra un ejemplo en el que el dispositivo 100 de visualización visualiza una imagen, de acuerdo con una realización ilustrativa.
Haciendo referencia a la Figura 4, el dispositivo 100 de visualización puede visualizar una imagen 410 de previsualización cuando un usuario 10 desea capturar una imagen del usuario 10. En general, la imagen 410 de previsualización se visualiza en casi toda la región de un visualizador del dispositivo 100 de visualización. En este caso, cuando el usuario 10 observa la imagen 410 de previsualización, los ojos del usuario 10 fotografiado por el dispositivo 100 de visualización no se orientan hacia una lente 450 de una cámara y, por lo tanto, se captura una imagen poco natural del usuario.
Por lo tanto, de acuerdo con una realización ilustrativa, el dispositivo 100 de visualización puede visualizar una imagen 420 de previsualización pequeña en una ubicación en la que se dispone la lente 450 de la cámara. El usuario 10 puede capturar fácilmente una figura natural del usuario 10 capturando una imagen por medio del dispositivo 100 de visualización mientras visualiza la imagen 420 de previsualización pequeña.
Un tamaño de la imagen 420 de previsualización mostrada en la Figura 4 puede determinarse de forma diferente de acuerdo con las realizaciones ilustrativas. De acuerdo con una realización ilustrativa, ya que la imagen 420 de previsualización puede visualizare a una distancia más cercana a la lente 450 ya que el tamaño de la imagen 420 de previsualización es más pequeño, la imagen 420 de previsualización necesita visualizarse tan pequeña como sea posible. Sin embargo, si el tamaño de la imagen 420 de previsualización es demasiado pequeño, es difícil que el usuario 10 reconozca o vea la imagen 420 de previsualización y, por lo tanto, la imagen 420 de previsualización necesita tener un tamaño apropiado para su visualización. Por lo tanto, el dispositivo 100 de visualización puede determinar el tamaño de la imagen 420 de previsualización de tal forma que la imagen 420 de previsualización tiene el menor tamaño reconocible por el usuario 10. El tamaño de la imagen 420 de previsualización puede incluir al menos una de una longitud vertical, una longitud horizontal, una relación de la longitud vertical de la imagen 420 de previsualización con una longitud vertical del visualizador del dispositivo 100 de visualización, una relación de la longitud horizontal de la imagen 420 de previsualización con una longitud horizontal del visualizador del dispositivo 100 de visualización, y una relación de un área de la imagen 420 de previsualización con un área del visualizador del dispositivo 100 de visualización. De acuerdo con una o más realizaciones ilustrativas, el dispositivo 100 de visualización puede determinar el tamaño de la imagen 420 de previsualización de acuerdo con una distancia desde un ojo del usuario 10 al dispositivo 100 de visualización. De acuerdo con una realización ilustrativa, el tamaño de la imagen 420 de previsualización puede determinarse a base del tamaño del visualizador, un tamaño de ojo de la imagen 410 de previsualización visualizada en una pantalla completa y un tamaño de ojo mínimo de acuerdo con una distancia desde el dispositivo 100 de visualización al usuario 10. Es decir, cuando el tamaño del visualizador (en el presente documento, el tamaño del visualizador indica la longitud vertical del visualizador) es 110 mm, el tamaño de ojo de la imagen 410 de previsualización es 2,5 mm, y el tamaño de ojo mínimo de acuerdo con una distancia (por ejemplo, 50 cm) desde el dispositivo 100 de visualización al usuario 10 es 0,8 mm, el tamaño de la imagen 420 de previsualización es 35,2 mm a base de la Ecuación 1.
110:2,5 = X:0,8 EQN.
(1)
En la Ecuación 1, X indica el tamaño de la imagen 420 de previsualización, y el tamaño de ojo de la imagen 410 de previsualización puede adquirirse realizando reconocimiento de imagen en la imagen 410 de previsualización. Además, la distancia desde el dispositivo 100 de visualización al usuario 10 puede detectarse usando un sensor de medición de distancia incluido en el módulo 170 de sensor de la Figura 1 o adquirido por la unidad 110 de control de la Figura 1 que realiza reconocimiento de imagen en una imagen adquirida usando el módulo 150 de cámara de la Figura 1, pero no se limita a lo mismo. El tamaño de ojo mínimo de acuerdo con una distancia desde el dispositivo 100 de visualización al usuario 10 puede prealmacenarse en el dispositivo 100 de visualización o determinarse usando un algoritmo predeterminado. De acuerdo con una o más realizaciones ilustrativas, tamaños de la imagen 420 de previsualización de acuerdo con distancias del dispositivo 100 de visualización al usuario 10 pueden preestablecerse en el dispositivo 100 de visualización, y el dispositivo 100 de visualización puede visualizar la imagen 420 de previsualización que tiene un tamaño preestablecido a base de tamaños preestablecidos.
El tamaño de la imagen 420 de previsualización puede variar de acuerdo con el tamaño del visualizador del dispositivo 100 de visualización, una cara del usuario 10 y una resolución de un sensor de cámara, pero no se limita a lo mismo.
Las Figuras 5A a 5C y 6A a 6B ilustran ejemplos en los que el dispositivo 100 de visualización visualiza una imagen, de acuerdo con una o más otras realizaciones ilustrativas.
De acuerdo con una realización ilustrativa, en la operación S320 de la Figura 3, la unidad 210 de control de la Figura 2 puede determinar una región en la que tiene que visualizarse una imagen a base de una ubicación en la que se dispone una lente 550-1, 550-2 o 550-3 de una cámara.
Haciendo referencia a 500A, cuando la lente 550-1 se dispone en un extremo superior derecho del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 510-1 de extremo superior derecho del visualizador 290 de la Figura 2 como una región de previsualización. Haciendo referencia a la Figura 500B, cuando la lente 550-2 se dispone en un extremo superior central del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 510-2 de extremo superior central del visualizador 290 como la región de previsualización. Haciendo referencia a 500C, cuando la lente 550-3 se dispone en un extremo superior izquierdo del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 510-3 de extremo superior izquierdo del visualizador 290 como la región de previsualización.
La Figura 5B ilustra un ejemplo en el que el dispositivo 100 de visualización visualiza una imagen cuando un usuario captura la imagen mientras sujeta el dispositivo 100 de visualización en una dirección horizontal, de acuerdo con una realización ilustrativa.
Haciendo referencia a 510A, cuando la lente 550-1 se dispone en un extremo superior izquierdo del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 520-1 de extremo superior izquierdo del visualizador 290 como la región de previsualización. Haciendo referencia a 510B, cuando la lente 550-2 se dispone en un extremo izquierdo central del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 520-2 de extremo izquierdo central del visualizador 290 como la región de previsualización. Haciendo referencia a la Figura 510C, cuando la lente 550-3 se dispone en el extremo inferior izquierdo del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 520-3 de extremo inferior izquierdo del visualizador 290 como la región de previsualización.
Haciendo referencia a las Figuras 5A y 5B, una relación de una longitud vertical de la imagen con una longitud horizontal de la imagen puede ser, por ejemplo, 4:3 o 16:9 cuando la longitud vertical de la imagen es más larga que la longitud horizontal de la imagen. Como alternativa, la relación de la longitud vertical de la imagen a la longitud horizontal de la imagen puede ser, por ejemplo, 3:4 o 9:16 cuando la longitud vertical de la imagen es más corta que la longitud horizontal de la imagen.
La ubicación en la que puede preestablecerse la lente 550-1, 550-2 o 550-3 de la cámara en el dispositivo 100 de visualización. Como alternativa, cuando una ubicación de una lente es cambiable, la unidad 110 de control puede detectar la ubicación de la lente usando un sensor separado. Sin embargo, la presente realización ilustrativa no se limita a lo mismo.
La Figura 5C ilustra un ejemplo en el que el dispositivo 100 de visualización visualiza una imagen cuando un usuario captura la imagen mientras sujeta el dispositivo 100 de visualización en una dirección horizontal y mientras sujeta el dispositivo 100 de visualización en una dirección vertical, de acuerdo con una realización ilustrativa.
Haciendo referencia a 520A, cuando se dispone una lente 551-1 en un extremo superior central del dispositivo 100 de visualización, la unidad 210 de control puede determinar una región 530-1 de extremo superior central del visualizador 290 como una región de previsualización a base de una ubicación en la que se dispone la lente 551-1 de una cámara.
Haciendo referencia a 520B, cuando el usuario captura la imagen mientras sujeta el dispositivo 100 de visualización en la dirección vertical de acuerdo con una realización ilustrativa, la unidad 210 de control puede determinar una región 530-2 de extremo derecho central del visualizador 290 como la región de previsualización a base de una ubicación en la que se dispone la lente 551-1 de la cámara.
De acuerdo con una realización ilustrativa, si el usuario captura una imagen mientras sujeta el dispositivo 100 de visualización después de girar el dispositivo 100 de visualización desde la dirección horizontal a la dirección vertical, la unidad 110 de control puede mover y visualizar la imagen ajustando una región de previsualización para estar cerca de una ubicación en la que se dispone una lente de una cámara.
Haciendo referencia a la Figura 5C, una relación de una longitud vertical de la imagen con una longitud horizontal de la imagen puede ser, por ejemplo, 4:3 o 16:9 cuando la longitud vertical de la imagen es más larga que la longitud horizontal de la imagen. Como alternativa, la relación de la longitud vertical de la imagen a la longitud horizontal de la imagen puede ser, por ejemplo, 3:4 o 9:16 cuando la longitud vertical de la imagen es más corta que la longitud horizontal de la imagen.
Como se muestra en las Figuras 5A a 5C, de acuerdo con una realización ilustrativa, la unidad 210 de control puede mantener una distancia constante entre un ojo de un usuario que está visualizando una imagen visualizada y una cámara determinando una región en la que tiene que visualizarse una imagen a base de una ubicación en la que se dispone la lente 550-1, 550-2, 550-3 o 551-1 de la cámara.
De acuerdo con otra realización ilustrativa, en la operación S320 de la Figura 3, la unidad 210 de control de la Figura 2 puede determinar una región en la que tiene que visualizarse una imagen a base de una relación de una longitud vertical de la imagen a visualizar con una longitud horizontal de la imagen a visualizar.
Por ejemplo, si la longitud vertical de la imagen a visualizar es más larga que la longitud horizontal de la imagen a visualizar (por ejemplo, longitud vertical : longitud horizontal es 4:3 o 16:9), la unidad 210 de control puede determinar la región en la que tiene que visualizarse una imagen de acuerdo con una ubicación en la que la 550-1, 550-2 o 550-3 se dispone como se muestra en la Figura 5A.
Como otro ejemplo, si la longitud vertical de la imagen a visualizar es más corta que la longitud horizontal de la imagen a visualizar (por ejemplo, longitud vertical : longitud horizontal es 3:4 o 9:16), la unidad 210 de control puede controlar el visualizador 290 para visualizar una imagen de previsualización 610 de acuerdo con la longitud horizontal del visualizador 290 en un extremo superior del visualizador 290 independientemente de si la lente 550-1, 550-2 o 550-3 se dispone en un lado izquierdo o un lado derecho como se muestra en 600A, 600B y 600C.
Haciendo referencia a 610A, 610B y 610C en la Figura 6B, cuando un usuario captura una imagen mientras sujeta el dispositivo 100 de visualización en la dirección horizontal de acuerdo con una realización ilustrativa, si una longitud vertical de la imagen es más larga que una longitud horizontal de la imagen (por ejemplo, longitud vertical : longitud horizontal es 4:3 o 16:9), la unidad 210 de control puede controlar el visualizador 290 para visualizar una imagen de previsualización 620 de acuerdo con la longitud vertical del visualizador 290 en un lado izquierdo del visualizador 290 independientemente de si la lente 550-1, 550-2 o 550-3 se dispone en un extremo superior o un extremo inferior. La Figura 7 ilustra un diagrama de flujo de un procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con otra realización ilustrativa.
En la operación S710, el dispositivo 100 de visualización puede fotografiar una cara de un usuario usando el sensor 250 de imagen de la Figura 2. En la operación S720, el dispositivo 100 de visualización puede ejecutar reconocimiento facial en la imagen capturada. El reconocimiento facial indica un procedimiento en el que un dispositivo reconoce una cara incluida en una imagen. En la Figura 7, aunque se ilustra un procedimiento en el que el dispositivo 100 de visualización reconoce la cara del usuario como un objeto, un objeto reconocido por el dispositivo 100 de visualización puede variar de acuerdo con las realizaciones ilustrativas.
Después de ejecutar el reconocimiento facial, si la cara del usuario no se reconoce a partir de la imagen en la operación S730, el dispositivo 100 de visualización puede continuar a la operación S720 para ejecutar de nuevo el reconocimiento facial. Como alternativa, el dispositivo 100 de visualización puede continuar a la operación S710 para fotografiar de nuevo la cara del usuario.
Si la cara del usuario se reconoce a partir de la imagen en la operación S730, la unidad 210 de control del dispositivo 100 de visualización puede generar una región a partir de la cual se reconoce la cara en la imagen como una imagen de previsualización en la operación S740. La Figura 8 ilustra una imagen 825 de previsualización visualizada por el dispositivo 100 de visualización. Haciendo referencia a la Figura 8, el dispositivo 100 de visualización puede generar una región 820 en la que se incluye una cara en una imagen completa mostrada en 800A como la imagen 825 de previsualización como se muestra en 800B. En el presente documento, la imagen completa generada usando un sensor de imagen puede denominarse como "imagen no procesada". Es decir, el dispositivo 100 de visualización puede generar una región que incluye una cara de un usuario, que es un objeto reconocido a partir de una imagen no procesada, como una imagen de previsualización.
En la operación S750, el dispositivo 100 de visualización puede determinar una región de previsualización. La operación S750 puede ser similar a la operación S320 de la Figura 3. En la operación S760, el dispositivo 100 de visualización puede visualizar la imagen de previsualización en la región de previsualización determinada. La operación S760 puede ser similar a la operación S330 de la Figura 3.
La Figura 9 ilustra un diagrama de flujo de un procedimiento en el que el dispositivo 100 de visualización captura una imagen, de acuerdo con una realización ilustrativa. Además, la Figura 10A ilustra un ejemplo de descripción de un procedimiento por el cual el dispositivo 100 de visualización determina un punto de tiempo de captura de imagen usando reconocimiento de pupila, de acuerdo con una realización ilustrativa.
En la operación S910, el dispositivo 100 de visualización puede capturar una imagen usando el sensor 250 de imagen y reconocer un ojo y una pupila de un usuario a partir de la imagen capturada. En la operación S920, el dispositivo 100 de visualización puede determinar si la pupila está ubicada en el centro del ojo. Por ejemplo, la unidad 210 de control puede determinar si la pupila está ubicada en el centro del ojo, a base de un resultado de comparación de una anchura de lo blando del ojo, que está ubicado por encima de la pupila en el ojo, con una anchura del blanco del ojo, que está ubicado por debajo de la pupila. Haciendo referencia a 1000A, ya que una anchura de lo blanco del ojo, que está ubicado por debajo de una pupila 1010-1 en un ojo 1000-1, es más ancha que una anchura de lo blanco del ojo, que está ubicado por encima de la pupila 1010-1 y, por lo tanto, la unidad 210 de control puede determinar que la pupila 1010-1 no está ubicada el centro del ojo 1000-1. Esto puede indicar que un usuario observa un punto distinto de una lente de una cámara. En este caso, el dispositivo 100 de visualización puede continuar a la operación S910 para supervisar una ubicación de la pupila en el ojo.
Como se muestra en 1000B, si se determina que una pupila 1010-2 está ubicada en el centro de un ojo 1000-2, el dispositivo 100 de visualización puede generar una imagen fija en la operación S930. De acuerdo con una realización ilustrativa, en la operación S930, el dispositivo 100 de visualización puede generar una imagen fija después de informar al usuario de un punto de tiempo apropiado para capturar emitiendo un sonido de alarma, un icono o similar. De acuerdo con otra realización ilustrativa, el dispositivo 100 de visualización puede generar una imagen fija inmediatamente cuando la pupila del usuario está ubicada en el centro del ojo.
La Figura 10B ilustra un ejemplo en el que el dispositivo 100 de visualización visualiza una imagen fija, de acuerdo con una realización ilustrativa.
Como se muestra en la Figura 10B, cuando la unidad 210 de control proporciona la imagen fija generada en la operación S930 de la Figura 9 al visualizador 290, la unidad 210 de control puede visualizar tanto una imagen 1020 de una región que incluye una cara de una imagen completa 1025 como la imagen completa 1025 en el visualizador 290.
De acuerdo con una realización ilustrativa, la unidad 210 de control puede almacenar al menos una imagen seleccionada en la unidad 175 de almacenamiento de la Figura 1 a base de una entrada de usuario para seleccionar al menos una de la imagen 1020 de la región que incluye la cara de la imagen completa 1025 y la imagen completa 1025.
La Figura 10B ilustra una realización en la que el dispositivo 100 de visualización visualiza una imagen fija, pero la presente realización no se limita a lo mismo.
La Figura 11 ilustra una estructura del dispositivo 100 de visualización, de acuerdo con una realización ilustrativa. De acuerdo con la presente realización, el dispositivo 100 de visualización puede incluir una pluralidad de visualizadores para realizar un movimiento de flexión. Haciendo referencia a 1100A, el dispositivo 100 de visualización puede incluir un primer visualizador 1190-1 y un segundo visualizador 1190-2. Haciendo referencia a 1100B, el dispositivo 100 de visualización puede realizar un movimiento de flexión incluyendo una bisagra o similar entre el primer visualizador 1190-1 y el segundo visualizador 1190-2.
La Figura 12 ilustra una estructura del dispositivo 100 de visualización, de acuerdo con otra realización ilustrativa. Haciendo referencia a 1200A, el dispositivo 100 de visualización puede incluir un visualizador 1290 flexible y una parte 1210 de flexión para realizar un movimiento de flexión. La parte 1210 de flexión tiene una bisagra o similar para permitir que un usuario doble el dispositivo 100 de visualización. Cuando el dispositivo 100 de visualización está doblado, el visualizador 1290 flexible también puede doblarse (1200B).
Los dispositivos 100 de visualización mostrados en las Figuras 11 y 12 son únicamente ilustrativos por conveniencia de descripción, y una forma del dispositivo 100 de visualización puede modificarse de diferentes formas de acuerdo con las realizaciones ilustrativas.
La Figura 13 ilustra un diagrama de flujo de un procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con otra realización ilustrativa.
En la operación S1310, el dispositivo 100 de visualización puede detectar un movimiento de flexión o un estado doblado del dispositivo 100 de visualización usando el sensor 270 de detección de flexión. Cuando se detecta el movimiento de flexión o un estado doblado en la operación S1320, el dispositivo 100 de visualización puede generar una imagen a visualizar en la operación S1330. La imagen a visualizar puede ser una imagen de previsualización. En la operación S1340, el dispositivo 100 de visualización puede determinar una región en la que tiene que visualizarse una imagen y visualizar la imagen generada en la región determinada. Cuando la imagen visualizada es una imagen de previsualización, la región determinada puede ser una región de previsualización.
La Figura 14 ilustra una región en la que se visualiza una imagen de previsualización, de acuerdo con una o más realizaciones ilustrativas.
Cuando el dispositivo 100 de visualización está doblado, un visualizador del dispositivo 100 de visualización puede dividirse en una primera región 1410 y una segunda región 1420 a base de una línea 1430 de flexión. La línea 1430 de flexión puede indicar una línea que define una ubicación en la que se realiza un movimiento de flexión. El dispositivo 100 de visualización puede determinar una región de previsualización de tal forma que la región de previsualización se incluye en una región cerca de una ubicación en la que se dispone una lente 1460 de entre la primera región 1410 y la segunda región 1420. En una realización ilustrativa, la línea de flexión es una línea visible que se visualiza por el dispositivo 100 de visualización. En otra realización ilustrativa, la línea de flexión no es una línea visible y no se visualiza por el dispositivo 100 de visualización.
De acuerdo con una realización ilustrativa, el dispositivo 100 de visualización puede visualizar una imagen 1425 en toda la primera región 1410 o segunda región 1420. De acuerdo con otra realización ilustrativa, el dispositivo 100 de visualización puede visualizar la imagen 1425 en una región parcial de la segunda región 1420, que está cerca de la ubicación en la que se dispone la lente 1460, como se muestra en la Figura 14.
La Figura 15A ilustra un diagrama de flujo de un procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas.
En la operación S1510, el dispositivo 100 de visualización puede generar una región a partir de la cual se reconoce una cara en una imagen capturada como una imagen de previsualización. La operación S1510 puede ser similar a la operación S740 de la Figura 7.
En la operación S1520, el dispositivo 100 de visualización puede determinar una región de previsualización de tal forma que la región de previsualización está cerca de una ubicación de una cámara. La operación S1520 puede ser similar a la operación S750 de la Figura 7. De acuerdo con una realización ilustrativa, el dispositivo 100 de visualización puede determinar una región parcial de toda la región del visualizador 290, que está cerca de una ubicación en la que se dispone una lente de una cámara, como la región de previsualización a base de la ubicación en la que se dispone la lente de la cámara.
En la operación S1530, el dispositivo 100 de visualización puede visualizar la imagen de previsualización en la región de previsualización. La operación S1530 puede ser similar a la operación S760 de la Figura 7. De acuerdo con una realización ilustrativa, el dispositivo 100 de visualización puede visualizar la imagen de previsualización generada en la operación S1510 en la región de previsualización determinada en la operación S1520.
En la operación S1540, el dispositivo 100 de visualización puede visualizar una imagen original en una región restante excepto para la región de previsualización entre toda la región del visualizador 290. En una realización ilustrativa, la región restante está fuera de la región de previsualización.
En aún otra realización ilustrativa, la región restante no se solapa con la región de previsualización.
En una realización ilustrativa, la región restante se está solapando parcialmente con las regiones de previsualización.
La Figura 15B ilustra el procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas.
De acuerdo con una realización ilustrativa, además de la región de previsualización determinada en la operación S1340 de la Figura 13, el dispositivo 100 de visualización puede visualizar una imagen de previsualización separada en una región excepto para la región de previsualización en el visualizador 290.
Haciendo referencia a 1500A, el dispositivo 100 de visualización puede visualizar una imagen 1525-1 de previsualización en una región superior de una línea 1530 de flexión y visualizar adicionalmente una imagen de previsualización separada 1510-1 en toda la región excepto para la región en la que se visualiza la imagen 1525-1 de previsualización. Como alternativa, haciendo referencia a 1500B, el dispositivo 100 de visualización puede visualizar una imagen 1525-2 de previsualización en la región superior de la línea 1530 de flexión y visualizar adicionalmente una imagen 1510-2 de previsualización separada en una región inferior de la línea 1530 de flexión. Las Figuras 16A y 16B ilustran el procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas.
Haciendo referencia a la Figura 16A, el dispositivo 100 de visualización puede visualizar una imagen 1625 de previsualización en una región superior de una línea 1630 de flexión. El dispositivo 100 de visualización puede recibir una entrada táctil a través de una región 1610 de un visualizador excepto para la región en la que se visualiza la imagen 1625 de previsualización. De acuerdo con la presente realización, el visualizador puede incluir una pantalla táctil. Cuando se recibe una entrada táctil a través de la región 1610 del visualizador, el dispositivo 100 de visualización puede generar una imagen fija. Es decir, el dispositivo 100 de visualización puede usar la región 1610 en la que no se visualiza la imagen 1625 de previsualización como una interfaz de usuario para una entrada de comando de captura de imagen.
Haciendo referencia a la Figura 16B, el dispositivo 100 de visualización puede visualizar la imagen 1625 de previsualización en la región superior de la línea 1630 de flexión. El dispositivo 100 de visualización puede proporcionar menús relacionados con la cámara a una región 1620 del visualizador excepto para la región en la que se visualiza la imagen 1625 de previsualización. Por consiguiente, un usuario puede tener una alta accesibilidad a los menús relacionados con la cámara mientras visualiza la imagen 1625 de previsualización.
Las Figuras 17 a 19 ilustran el procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas.
Haciendo referencia a la Figura 17, el dispositivo 100 de visualización puede visualizar una imagen de previsualización 1725 en una región dividida a base de una línea de flexión 1730. Además, el dispositivo 100 de visualización puede visualizar una interfaz 1710 de usuario de uso de servicios del dispositivo 100 de visualización en la otra región.
Por ejemplo, haciendo referencia a la Figura 18, el dispositivo 100 de visualización puede visualizar un objeto 1810 de interfaz de usuario de uso de un servicio de navegación. Como se muestra en la Figura 18, el dispositivo 100 de visualización puede visualizar una imagen 1825 de previsualización y el objeto 1810 de interfaz de usuario en respectivas regiones divididas a base de una línea 1830 de flexión. Como se muestra en 1800A, cuando el usuario 10 selecciona el objeto 1810 de interfaz de usuario, el dispositivo 100 de visualización puede buscar una posición del dispositivo 100 de visualización. El dispositivo 100 de visualización puede visualizar tanto una imagen de pantalla de ejecución 1815 de una aplicación de provisión de un servicio de navegación y la imagen 1825 de previsualización a la que se aplica realidad aumentada, a base de la posición buscada (1800B). En el presente documento, la imagen 1825 de previsualización a la que se aplica realidad aumentada puede indicar una imagen visualizada solapando información acerca de un edificio fotografiado y similares.
Como otro ejemplo, haciendo referencia a la Figura 19, el dispositivo 100 de visualización puede visualizar un objeto 1910 de interfaz de usuario de provisión de un servicio de búsqueda que usa captura de imagen. Haciendo referencia a 1900A, el usuario 10 puede seleccionar el objeto 1910 de interfaz de usuario visualizado en una parte inferior de la línea 1830 de flexión. Haciendo referencia a 1900B, cuando se selecciona el objeto 1910 de interfaz de usuario, el dispositivo 100 de visualización puede visualizar la información 1912 que indica que se efectúa una búsqueda imagen si se captura una imagen. Si un usuario 10-1 selecciona un botón 1920 de captura de imagen, el dispositivo 100 de visualización puede capturar una imagen y realiza una búsqueda usando la imagen capturada. Haciendo referencia a 1900C, el dispositivo 100 de visualización puede visualizar la información 1914, que se ha buscado usando la imagen, en la parte inferior de la línea 1830 de flexión.
Interfaces de usuario de uso de servicios del dispositivo 100 de visualización pueden modificarse de diferentes formas de acuerdo con las realizaciones ilustrativas. Por ejemplo, las interfaces de usuario de uso de servicios del dispositivo 100 de visualización pueden incluir una interfaz de usuario de compra de un producto relacionado con una correspondiente imagen después de capturar la imagen, una interfaz de usuario de carga de una imagen capturada a un servicio de redes sociales (SNS), una interfaz de usuario de establecimiento de una configuración detallada para capturar una imagen y similares.
La Figura 20 ilustra el procedimiento en el que el dispositivo 100 de visualización visualiza una imagen de previsualización, de acuerdo con una o más otras realizaciones ilustrativas.
Cuando se detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización que se puede doblar puede determinar una imagen de pantalla a visualizar en cada una de las regiones divididas a base de una línea 2030 de flexión de acuerdo con un estado del dispositivo 100 de visualización antes del movimiento de flexión. De acuerdo con una realización ilustrativa, cuando se detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede determinar una imagen de pantalla a visualizar en cada de las regiones divididas a base de la línea 2030 de flexión de acuerdo con una aplicación ejecutada por el dispositivo 100 de visualización. Por ejemplo, como se muestra en 2000A, el dispositivo 100 de visualización puede visualizar una imagen 2010-1 de pantalla de ejecución de una aplicación de búsqueda. En este caso, cuando el dispositivo 100 de visualización detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede visualizar una imagen 2010-2 de pantalla de ejecución de la aplicación de búsqueda en una región inferior de la línea 2030 de flexión y visualizar una imagen 2020 de pantalla de ejecución de una aplicación de captura de imágenes para una búsqueda de imagen en una región superior de la línea 2030 de flexión (2000B). Imágenes de pantalla a visualizar después de un movimiento de flexión o un estado doblado a base de estados del dispositivo 100 de visualización antes del movimiento de flexión o un estado doblado pueden modificarse de diferentes formas de acuerdo con las realizaciones ilustrativas.
Las Figuras 21 y 22 ilustran un procedimiento en el que el dispositivo 100 de visualización visualiza una interfaz de usuario, de acuerdo con una realización ilustrativa.
En la memoria descriptiva, aunque se ha descrito principalmente que el dispositivo 100 de visualización visualiza una imagen de previsualización, la imagen de previsualización es únicamente ilustrativa, y la imagen de previsualización puede sustituirse por otra imagen.
Haciendo referencia a la Figura 21, el dispositivo 100 de visualización puede visualizar una imagen 2120 de pantalla de entrada de mensaje que es una interfaz de usuario a través de la cual se comprueba un mensaje introducido, en una de las regiones divididas a base de una línea 2130 de flexión. Además, el dispositivo 100 de visualización puede visualizar un teclado 2110 virtual, que es una interfaz de usuario de introducción de caracteres y similares, en la otra región. Cuando el dispositivo 100 de visualización visualiza una imagen de pantalla como se muestra en la Figura 21, un usuario puede mirar a la imagen 2120 de pantalla de entrada de mensaje en un ángulo de comprobación de pantalla fácil en un estado de sujeción de la región en la que se visualiza el teclado 2110 virtual. La Figura 21 es únicamente una ilustración proporcionada por conveniencia de descripción, y una imagen de pantalla visualizada por el dispositivo 100 de visualización puede modificarse de diferentes formas de acuerdo con las realizaciones ilustrativas. Por ejemplo, el teclado 2110 virtual puede sustituirse por una ventana de entrada de escritura a mano para recibir una entrada de escritura a mano usando un lápiz óptico o similar. Como otro ejemplo, el dispositivo 100 de visualización puede visualizar adicionalmente una región para proporcionar una función de búsqueda relacionada usando una palabra introducida en la región en la que se visualiza el teclado 2110 virtual y un conjunto de herramientas relacionadas con una búsqueda.
Haciendo referencia a la Figura 22, el dispositivo 100 de visualización puede visualizar una imagen 2240 de pantalla de entrada de mensaje, que es una interfaz de usuario a través de la cual se comprueba un mensaje introducido, en una de las regiones divididas a base de una línea 2230 de flexión. Además, el dispositivo 100 de visualización puede visualizar una ventana 2220 de entrada de escritura a mano para recibir una entrada de escritura a mano usando un lápiz óptico o similar, en la otra región de las regiones divididas a base de la línea 2230 de flexión.
Además, el dispositivo 100 de visualización puede visualizar una región 2205 a través de la cual se proporciona la función de búsqueda relacionada usando una palabra introducida en la ventana 2220 de entrada de escritura a mano, en una región parcial de las regiones divididas a base de la línea 2230 de flexión. La región 2205 a través de la cual se proporciona la función de búsqueda relacionada puede incluir una palabra de búsqueda que incluye la palabra introducida en la ventana 2220 de entrada de escritura a mano, y un conjunto de palabras de búsqueda relacionadas con la palabra introducida en la ventana 2220 de entrada de escritura a mano. Además, el dispositivo 100 de visualización puede visualizar un conjunto 2210 de herramientas relacionado con una búsqueda en una región parcial de las regiones divididas a base de la línea 2230 de flexión.
Las Figuras 23 a 27 ilustran un procedimiento en el que el dispositivo 100 de visualización visualiza una interfaz de usuario cuando se detecta un movimiento de flexión o un estado doblado, de acuerdo con una realización ilustrativa. Como se muestra en 2300A, cuando se recibe un mensaje de texto, el dispositivo 100 de visualización puede visualizar la información 2305 de notificación de recepción en el visualizador 290.
En este caso, como se muestra en 2300B, cuando el dispositivo 100 de visualización detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede visualizar el mensaje de texto recibido en una región 2320 superior de las regiones divididas a base de una línea 2330 de flexión. Además, el dispositivo 100 de visualización puede visualizar un teclado virtual, que es una interfaz de usuario de introducción de caracteres y similares, en una región 2310 inferior de las regiones divididas a base de la línea 2330 de flexión.
Como se muestra en 2400A, el dispositivo 100 de visualización puede visualizar una imagen de pantalla de ejecución 2405 de una aplicación de mensaje de texto en el visualizador 290.
En este caso, como se muestra en 2400B, cuando el dispositivo 100 de visualización detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede visualizar una imagen de pantalla de ejecución de la aplicación de mensaje de texto en una región 2420 superior de las regiones divididas a base de una línea 2430 de flexión. El dispositivo 100 de visualización puede visualizar un teclado virtual 2410, que es una interfaz de usuario de introducción de caracteres y similares, en una región inferior de las regiones divididas a base de la línea 2430 de flexión. Además, el dispositivo 100 de visualización puede visualizar una imagen 2412 de pantalla de entrada de mensaje, que es una interfaz de usuario de comprobación de un mensaje introducido, en la región inferior de las regiones divididas a base de la línea 2430 de flexión. Además, el dispositivo 100 de visualización puede visualizar un conjunto 2415 de menú (por ejemplo, información acerca de un número de recepción de mensajes, un icono para borrar un mensaje, un icono para llamar con el número de recepción de mensaje y similares) relacionado con un mensaje de texto.
Como se muestra en 2500A, el dispositivo 100 de visualización puede visualizar una imagen 2505 de pantalla que indica una recepción de llamada en el visualizador 290 cuando se recibe una llamada.
En este caso, como se muestra en 2500B, cuando el dispositivo 100 de visualización detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede visualizar una imagen 2520 de pantalla de recepción de llamada en una región superior de las regiones divididas a base de una línea 2530 de flexión. Además, el dispositivo 100 de visualización puede visualizar una imagen 2510 de pantalla que incluye una lista de mensajes de rechazo de recepción en una región inferior de las regiones divididas a base de la línea 2530 de flexión.
Como se muestra en 2600A, el dispositivo 100 de visualización puede visualizar una imagen 2605 de pantalla de llamada en el visualizador 290.
En este caso, como se muestra en 2600B, cuando el dispositivo 100 de visualización detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede visualizar una imagen 2620 de pantalla de llamada en una región superior de las regiones divididas a base de una línea 2630 de flexión. Además, el dispositivo 100 de visualización puede visualizar un teclado 2610 numérico de introducción de un número durante una llamada en una región inferior de las regiones divididas a base de la línea 2630 de flexión.
Como se muestra en 2700A, el dispositivo 100 de visualización puede visualizar un teclado 2710 virtual, que es una interfaz de usuario de introducción de caracteres y similares, en el visualizador 290.
En este caso, como se muestra en 2700B, cuando el dispositivo 100 de visualización detecta un movimiento de flexión o un estado doblado, el dispositivo 100 de visualización puede visualizar un teclado 2720 virtual reorganizado reduciendo una anchura en la dirección longitudinal del teclado 2710 virtual.
El teclado 2720 virtual puede reconocerse con precisión por los ojos del usuario cuando el dispositivo 100 de visualización está doblado ya que el teclado 2720 virtual se visualiza para visualizarse tridimensionalmente de acuerdo con un ángulo de flexión del dispositivo 100 de visualización.
La Figura 28 ilustra una carcasa 2801 montable en el dispositivo 100 de visualización, de acuerdo con una realización ilustrativa.
Haciendo referencia a 2800A, el dispositivo 100 de visualización puede doblarse a base de una línea 2830 de flexión. La Figura 28(b) ilustra el dispositivo 100 de visualización montado con la carcasa 2801.
Haciendo referencia a 2800B, la carcasa 2801 puede incluir una parte frontal 2810 que contacta con la superficie frontal del dispositivo 100 de visualización y una parte trasera 2820-1 y 2820-2 que contacta con la superficie trasera del dispositivo 100 de visualización. Por ejemplo, la parte trasera 2820-1 y 2820-2 de la carcasa 2801 puede incluir dos regiones 2820-1 y 2820-2 que contactan con dos regiones de la superficie trasera del dispositivo 100 de visualización, que se dividen a base de la línea 2830 de flexión (2800C). Además, una parte 2840 de superficie lateral de la carcasa 2801 puede incluir una estructura que se puede doblar en un estado en el que la carcasa 2801 se monta en el dispositivo 100 de visualización.
La Figura 28 es únicamente ilustrativa, y la presente realización ilustrativa no se limita a la misma.
Una o más realizaciones ilustrativas pueden implementarse en una forma de un medio de grabación que incluye instrucciones ejecutables por ordenador, tal como un módulo de programa ejecutado por un sistema informático. Un medio legible por ordenador no transitorio puede ser un medio disponible arbitrario que puede accederse por un sistema informático e incluye todo tipo de medios volátiles y no volátiles y medios separados y no separados. Además, el medio legible por ordenador no transitorio puede incluir todo tipo de medio de almacenamiento informático y medios de comunicación. El medio de almacenamiento informático incluye todo tipo de medios volátiles y no volátiles y separados y no separados implementados por un procedimiento arbitrario o técnica de almacenamiento de información tal como instrucciones legibles por ordenador, una estructura de datos, un módulo de programa u otros datos. Los medios de comunicación habitualmente incluyen instrucciones legibles por ordenador, una estructura de datos, un módulo de programa, otros datos de una señal modulada tal como una portadora, otro mecanismo de transmisión y medios de distribución de información arbitrarios. Por ejemplo, el medio de almacenamiento informático puede implementarse usando ROM, RAM, memoria flash, un disco compacto (CD), un disco versátil digital (DVD), un disco magnético, una cinta magnética y similares.
Las realizaciones descritas anteriormente son únicamente ilustrativas, y se entenderá por los expertos en la materia que pueden hacerse diversos cambios en forma y detalles en las mismas sin cambiar características obligatorias del concepto inventivo. Por lo tanto, las realizaciones deberían entenderse únicamente en el sentido ilustrativo y no para el fin de limitación en todos los aspectos. Por ejemplo, cada componente descrito como un tipo individual puede efectuarse siendo distribuido, y análogamente, componentes descritos como un tipo distribuido también pueden efectuarse siendo acoplados.
Debería entenderse que realizaciones ilustrativas descritas en el presente documento deberían considerarse únicamente en un sentido descriptivo y no para fines de limitación. Descripciones de características o aspectos dentro de cada realización ilustrativa deberían considerarse habitualmente como disponibles para otras características o aspectos similares en otras realizaciones ilustrativas.
Mientras una o más realizaciones ilustrativas se han descrito con referencia a las figuras, se entenderá por los expertos en la materia que pueden hacerse diversos cambios en forma y detalles en las mismas sin alejarse del ámbito según se define mediante las siguientes reivindicaciones.

Claims (14)

REIVINDICACIONES
1. Un dispositivo (100) de visualización que comprende:
un visualizador (290);
una cámara (250) configurada para capturar una imagen, disponiéndose la cámara en una misma dirección con el visualizador;
un sensor (270) configurado para detectar un movimiento de flexión o un estado plegado del dispositivo de visualización; y
una unidad (210) de control configurada para controlar el visualizador para visualizar una imagen de previsualización para capturar una imagen usando la cámara en una región del visualizador que está dividida por una bisagra cuando el sensor detecta el movimiento de flexión, caracterizado porque la unidad de control está configurada adicionalmente para reconocer un ojo de un usuario, que está incluido en la imagen de previsualización, y para determinar una posición de una pupila en el ojo del usuario y para generar una imagen fija capturada por la cámara en un punto de tiempo en el que la posición de la pupila satisface una condición preestablecida.
2. El dispositivo de visualización de la reivindicación 1, en el que la unidad de control está configurada adicionalmente para determinar la región en base a una relación entre una longitud horizontal de la imagen de previsualización y una longitud vertical de la misma.
3. El dispositivo de visualización de la reivindicación 1, en el que la unidad de control está configurada adicionalmente para determinar la región en la que la imagen de previsualización tiene que visualizarse, en base a una posición en la que está dispuesta la cámara en el dispositivo de visualización.
4. El dispositivo de visualización de la reivindicación 1, en el que la unidad de control está configurada adicionalmente para generar una imagen no procesada en base a una señal de imagen usando la cámara, reconocer un objeto en la imagen no procesada, y determinar una región que incluye el objeto reconocido en la imagen no procesada como la imagen de previsualización.
5. El dispositivo de visualización de la reivindicación 4, en el que el objeto es una cara de un usuario, que está incluida en la imagen no procesada.
6. El dispositivo de visualización de la reivindicación 1, en el que la región es una primera región y la unidad de control está configurada adicionalmente para controlar aún más la visualización de la imagen de previsualización en una segunda región que está fuera de la primera región del visualizador.
7. El dispositivo de visualización de la reivindicación 1, en el que el visualizador comprende una pantalla táctil configurada para recibir una entrada táctil del usuario, la región es una primera región, y
cuando se recibe la entrada táctil del usuario en una segunda región que está fuera de la primera región, la unidad de control genera una imagen fija capturada por la cámara en un punto de tiempo en el que se recibe la entrada táctil.
8. El dispositivo de visualización de la reivindicación 1, en el que la región es una primera región, la unidad de control está configurada adicionalmente para visualizar además un objeto de interfaz de usuario para controlar una operación del dispositivo de visualización, en una segunda región que está fuera de la primera región en el visualizador.
9. El dispositivo de visualización de la reivindicación 1, que comprende adicionalmente un sensor de distancia configurado para detectar una distancia entre el dispositivo de visualización y un usuario,
en el que la unidad de control está configurada adicionalmente para determinar un área de la región en base a la distancia detectada por el sensor de distancia.
10. Un procedimiento de operación de un dispositivo de visualización, comprendiendo el procedimiento: cuando se detecta un movimiento de flexión (S1320) del dispositivo de visualización, visualizar una imagen de previsualización para capturar una imagen usando una cámara en una región de un visualizador que se divide por una bisagra (S1340), caracterizado porque el procedimiento comprende adicionalmente:
reconocer un ojo de un usuario, que se incluye en la imagen de previsualización (S910);
determinar una posición de una pupila en el ojo del usuario (S920); y
generar una imagen fija capturada por la cámara en un punto de tiempo en el que la posición de la pupila satisface una condición preestablecida (S930).
11. El procedimiento de la reivindicación 10, en el que la visualización comprende determinar la región en base a una relación entre una longitud horizontal de la imagen de previsualización y una longitud vertical de la misma.
12. El procedimiento de la reivindicación 10, en el que la visualización comprende determinar la región en la que la imagen de previsualización tiene que visualizarse en el dispositivo de visualización, en base a una posición en la que se dispone la cámara en el dispositivo de visualización.
13. El procedimiento de la reivindicación 10, en el que la generación de la imagen comprende:
generar una imagen no procesada en base a una señal de imagen;
reconocer un objeto realizando reconocimiento de imagen en la imagen no procesada; y
determinar una región que incluye el objeto reconocido en la imagen no procesada como la imagen de previsualización.
14. Un medio de grabación legible por ordenador no transitorio que tiene grabado en el mismo un programa legible por ordenador para la realización del procedimiento de la reivindicación 1.
ES16150471T 2015-01-07 2016-01-07 Dispositivo de visualización y procedimiento de operación del mismo Active ES2821892T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562100614P 2015-01-07 2015-01-07
US201562102232P 2015-01-12 2015-01-12
KR1020150086424A KR20160085192A (ko) 2015-01-07 2015-06-18 디스플레이 디바이스 및 그 동작 방법
KR1020160001623A KR102589849B1 (ko) 2015-01-07 2016-01-06 디스플레이 디바이스 및 그 동작 방법

Publications (1)

Publication Number Publication Date
ES2821892T3 true ES2821892T3 (es) 2021-04-28

Family

ID=56506071

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16150471T Active ES2821892T3 (es) 2015-01-07 2016-01-07 Dispositivo de visualización y procedimiento de operación del mismo

Country Status (5)

Country Link
EP (2) EP3243125A4 (es)
KR (4) KR102137543B1 (es)
CN (4) CN107430433B (es)
ES (1) ES2821892T3 (es)
TW (1) TWI619113B (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649254B1 (ko) * 2016-08-03 2024-03-20 삼성전자주식회사 디스플레이 제어 방법, 저장 매체 및 전자 장치
TWI619103B (zh) * 2016-09-23 2018-03-21 友達光電股份有限公司 可撓式顯示器
KR102341297B1 (ko) 2017-09-01 2021-12-20 삼성전자 주식회사 전자장치의 형상 유지구조 및 이를 포함하는 전자장치
CN108196774B (zh) * 2017-12-18 2021-05-04 努比亚技术有限公司 一种消息查阅方法、柔性屏终端及计算机可读存储介质
CN108182582B (zh) * 2018-01-29 2021-09-21 努比亚技术有限公司 一种支付方法、终端和计算机可读存储介质
TWI652529B (zh) 2018-03-07 2019-03-01 緯創資通股份有限公司 可撓式顯示裝置與劃分可撓式顯示器的方法
CN109753118B (zh) * 2018-12-29 2021-03-19 维沃移动通信有限公司 一种终端控制方法及终端
CN113504866A (zh) * 2019-02-22 2021-10-15 华为技术有限公司 屏幕控制方法、电子设备及存储介质
CN109961694B (zh) * 2019-02-28 2023-02-28 重庆京东方显示技术有限公司 一种柔性显示装置
WO2021025241A1 (en) * 2019-08-07 2021-02-11 Samsung Electronics Co., Ltd. Method and bendable device for constructing 3d data item
CN113141428B (zh) * 2020-01-20 2023-07-25 Oppo广东移动通信有限公司 可折叠电子设备及其控制方法
CN114237530A (zh) * 2020-01-21 2022-03-25 华为技术有限公司 一种折叠屏的显示方法及相关装置
WO2021162295A1 (ko) * 2020-02-10 2021-08-19 삼성전자 주식회사 플렉서블 디스플레이를 갖는 전자 장치의 운영 방법 및 장치
KR20210101684A (ko) 2020-02-10 2021-08-19 삼성전자주식회사 어플리케이션의 실행 화면을 제공하기 위한 전자 장치 및 그 동작 방법
CN111338555B (zh) * 2020-02-19 2022-03-15 昆明闻泰通讯有限公司 通过虚拟键盘实现输入的方法、装置、设备及存储介质
CN111625132B (zh) * 2020-05-15 2021-12-03 武汉华星光电半导体显示技术有限公司 显示面板以及显示装置
WO2021261713A1 (ko) * 2020-06-24 2021-12-30 삼성전자 주식회사 조도 센서를 포함하는 전자 장치
WO2024005615A1 (ko) 2022-07-01 2024-01-04 삼성전자 주식회사 전자 장치 및 전자 장치의 디스플레이 제어 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI408628B (zh) * 2006-11-09 2013-09-11 Creator Technology Bv 可撓性顯示裝置之第二顯示器整合
KR101521219B1 (ko) * 2008-11-10 2015-05-18 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
KR101517082B1 (ko) * 2008-11-10 2015-04-30 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
KR101615379B1 (ko) * 2009-10-14 2016-04-26 삼성전자주식회사 플렉서블 디스플레이부를 구비하는 휴대단말기 및 휴대단말기의 정보표시 방법
JP5640365B2 (ja) * 2009-12-07 2014-12-17 ソニー株式会社 表示装置及び表示装置の制御方法
KR101078899B1 (ko) * 2010-01-29 2011-11-01 주식회사 팬택 플렉서블 디스플레이의 영상 출력 위치 제어 장치
CN101894538B (zh) * 2010-07-15 2012-09-05 优视科技有限公司 屏幕显示画面控制方法和装置
KR101731346B1 (ko) * 2010-11-12 2017-04-28 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
KR101287147B1 (ko) * 2011-05-23 2013-07-17 (주) 프렉코 힌지장치 및 이를 구비한 휴대용 전자장치
KR20130059233A (ko) * 2011-11-28 2013-06-05 삼성전자주식회사 휴대단말기의 어플리케이션 표시장치 및 방법
KR20130080937A (ko) * 2012-01-06 2013-07-16 삼성전자주식회사 플랙서블 디스플레이를 구비하는 단말장치의 화면 표시장치 및 방법
KR20130106946A (ko) * 2012-03-21 2013-10-01 삼성전자주식회사 전자장치의 디스플레이 방법 및 장치
CN103369214A (zh) * 2012-03-30 2013-10-23 华晶科技股份有限公司 图像获取方法与图像获取装置
KR101375335B1 (ko) * 2012-05-15 2014-03-18 삼성디스플레이 주식회사 디스플레이 장치 및 그 제어 방법
KR101943357B1 (ko) * 2012-06-01 2019-01-29 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102104588B1 (ko) * 2012-07-11 2020-04-24 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 동작 방법
KR101916416B1 (ko) * 2012-07-30 2018-11-08 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 디스플레이 방법
CN103631333B (zh) * 2012-08-27 2017-07-21 联想(北京)有限公司 一种提示方法及电子设备
KR20140036499A (ko) * 2012-09-17 2014-03-26 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 디스플레이 방법
KR102145533B1 (ko) * 2012-10-04 2020-08-18 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 제어 방법
KR101545883B1 (ko) * 2012-10-30 2015-08-20 삼성전자주식회사 단말의 카메라 제어 방법 및 그 단말
KR102086715B1 (ko) * 2012-11-01 2020-03-09 삼성전자주식회사 가요성 표시부의 화면 출력 제어 방법 및 이를 지원하는 단말기
KR102097361B1 (ko) * 2013-02-01 2020-04-07 삼성디스플레이 주식회사 가요성 디스플레이 장치를 구비한 모바일 기기 및 이의 동작 방법
KR102165442B1 (ko) * 2013-02-01 2020-10-14 엘지전자 주식회사 이동 단말기
CN103442104B (zh) * 2013-08-21 2016-07-06 上海鼎为通讯电子有限公司 移动终端及其显示控制方法
CN103645749A (zh) * 2013-12-23 2014-03-19 张志增 自动调节型显示设备及调节方法

Also Published As

Publication number Publication date
CN107430433A (zh) 2017-12-01
CN107430433B (zh) 2021-03-26
EP4354277A3 (en) 2024-09-25
KR20200090684A (ko) 2020-07-29
KR20160085225A (ko) 2016-07-15
KR20160085192A (ko) 2016-07-15
CN112965601A (zh) 2021-06-15
TW201636993A (zh) 2016-10-16
EP3243125A2 (en) 2017-11-15
KR20160085190A (ko) 2016-07-15
KR102270681B1 (ko) 2021-06-30
CN107223279A (zh) 2017-09-29
CN112965600B (zh) 2024-02-20
CN112965600A (zh) 2021-06-15
EP4354277A2 (en) 2024-04-17
EP3243125A4 (en) 2018-02-14
TWI619113B (zh) 2018-03-21
CN107223279B (zh) 2020-10-13
KR102137543B1 (ko) 2020-08-13
CN112965601B (zh) 2024-09-17
KR102589849B1 (ko) 2023-10-17

Similar Documents

Publication Publication Date Title
ES2821892T3 (es) Dispositivo de visualización y procedimiento de operación del mismo
EP3043345B1 (en) Display device and operating method thereof
CN111034181B (zh) 图像捕获设备、图像显示系统和操作方法
KR102234709B1 (ko) 이동 단말기 및 그것의 제어방법
KR102364084B1 (ko) 이동단말기 및 그 제어방법
CN107765429B (zh) 图像显示装置及其操作方法
KR102329420B1 (ko) 이동단말기 및 그 제어방법
KR101735484B1 (ko) 헤드 마운티드 디스플레이
KR102339178B1 (ko) 이동단말기 및 그 제어방법
KR102240639B1 (ko) 글래스 타입 단말기 및 그것의 제어 방법
US9392165B2 (en) Array camera, mobile terminal, and methods for operating the same
KR102205281B1 (ko) 이동 단말기
KR102217561B1 (ko) 헤드 마운티드 디스플레이 및 그것의 제어방법
KR20170035237A (ko) 이동 단말기 및 그 제어방법
KR20180099182A (ko) 헤드 마운티드 디스플레이를 포함하는 시스템 및 그 제어 방법
KR102181208B1 (ko) 이동 단말기 및 그것의 제어 방법
KR101734287B1 (ko) 헤드 마운티드 디스플레이 및 그 제어방법
KR20210017282A (ko) 카메라 프리뷰 이미지를 제공하기 위한 전자 장치 및 그의 동작 방법
US9270982B2 (en) Stereoscopic image display control device, imaging apparatus including the same, and stereoscopic image display control method
KR102223281B1 (ko) 이동단말기 및 그 제어방법
US10021317B2 (en) Image display apparatus capable of regulating focusing using a camera module having a single lens and method of operating the same
KR102541173B1 (ko) 단말기 및 그 제어 방법
KR101677658B1 (ko) 이동 단말기 및 그 제어방법
KR102223610B1 (ko) 이동 단말기 및 그것의 제어방법
KR102309451B1 (ko) 웨어러블 디바이스 및 웨어러블 디바이스 디스플레이 제어 방법