ES2903554T3 - Aparato electrónico, método de funcionamiento del aparato y programa - Google Patents
Aparato electrónico, método de funcionamiento del aparato y programa Download PDFInfo
- Publication number
- ES2903554T3 ES2903554T3 ES18206821T ES18206821T ES2903554T3 ES 2903554 T3 ES2903554 T3 ES 2903554T3 ES 18206821 T ES18206821 T ES 18206821T ES 18206821 T ES18206821 T ES 18206821T ES 2903554 T3 ES2903554 T3 ES 2903554T3
- Authority
- ES
- Spain
- Prior art keywords
- user
- cursor
- display
- control unit
- command button
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- User Interface Of Digital Computer (AREA)
- Lens Barrels (AREA)
Abstract
Un aparato electrónico (200), que comprende: una unidad de procesamiento (205) capaz de establecer un valor numérico de un estado de ajuste de zoom; una unidad de control de visualización (205) configurada para mostrar un botón de mando (361) que se puede desplazar sobre un cursor (360) de conformidad con una operación de arrastre del usuario tal como una pantalla de ajuste (211) del valor numérico; y una unidad de control de operación (205) configurada para modificar el valor numérico dependiendo de un cambio de la posición del botón mediante la operación de arrastre del usuario en la pantalla de ajuste mostrada por el control de la unidad de control de visualización, siendo la posición de visualización del botón en el cursor modificada con el cambio de una posición táctil de la operación de arrastre del usuario; en donde cuando no se inicia la operación de arrastre del usuario, la unidad de control de visualización está configurada para establecer una posición del botón de mando en el centro del cursor; cuando la operación de arrastre del usuario en el botón de mando ya no se realiza, la unidad de control de operación está configurada para dejar de cambiar el valor numérico de manera inmediata y, cuando ya no se realiza una operación táctil de la operación de arrastre del usuario, la unidad de control de visualización está configurada para hacer retornar la posición de visualización del botón de mando al centro del cursor en un período de tiempo predeterminado; y en donde el aparato electrónico es un teléfono inteligente; caracterizado porque: la unidad de control de operación está configurada, además, para modificar la velocidad a la que se cambia el valor numérico de conformidad con el desplazamiento del botón de mando desde el centro del cursor de modo que cuanto más se desplace el botón de mando desde el centro del cursor mediante la operación de arrastre del usuario, tanto mayor será la velocidad a la que la unidad de control de operación cambia el valor numérico.
Description
DESCRIPCIÓN
Aparato electrónico, método de funcionamiento del aparato y programa
CAMPO TÉCNICO
La presente invención se refiere a un aparato electrónico tal como una cámara de vídeo, un método de operación de un aparato para utilizar un aparato electrónico y un programa para ejecutar una operación de un aparato electrónico. ANTECEDENTES
De manera convencional, en una cámara de vídeo, se proporcionan una palanca de ajuste del zoom y una palanca de ajuste del enfoque, y un usuario acciona las palancas para realizar un ajuste del zoom y un ajuste del enfoque de una lente.
Por regla general, una palanca de ajuste del zoom y una palanca de ajuste del enfoque están dispuestas, cada una, en un punto intermedio cuando un usuario no pulsa las palancas. Cuando un usuario presiona la palanca hacia una dirección (dirección ), una lente de zoom o una lente de enfoque se desplaza en la dirección a una velocidad correspondiente a la fuerza de pulsación de la misma. Además, cuando un usuario presiona la palanca hacia la otra dirección (dirección -), la lente de zoom o la lente de enfoque se desplaza a la dirección opuesta (la otra dirección) a una velocidad correspondiente a una fuerza de pulsación de la misma.
Una cámara de vídeo, tal como la descrita con anterioridad, que está provista de una palanca de ajuste del zoom y de una palanca de ajuste del enfoque, puede lograr ajustes de una lente de zoom y de una lente de enfoque con facilidad por un usuario accionando las palancas.
El documento de patente 1 describe que se proporciona una palanca de ajuste del zoom a una cámara de vídeo, y que el zoom de velocidad variable se realiza sobre la base de un estado de funcionamiento de la palanca.
Documento de patente 1: Solicitud de patente japonesa accesible al público n° HEI6-273658.
Otra técnica anterior incluye el documento EP 2405299 A2 que describe un dispositivo de procesamiento de imágenes configurado con una sección de visualización para mostrar un icono que representa un temporizador que un usuario puede ajustar y cambiar para representar un progreso del temporizador.
SUMARIO DE LA INVENCIÓN
Problema a resolver por la invención
Para la palanca de ajuste del zoom y la palanca de ajuste del enfoque, es necesario detectar una magnitud de accionamiento en el momento de presionar la palanca y ajustar una velocidad de accionamiento de un mecanismo de ajuste por parte de un usuario, por lo que estos elementos tienen mecanismos relativamente complicados. Se pueden disponer y utilizar dos botones de mando para dar una orden para realizar una operación en una dirección y para dar una orden para realizar una operación en una dirección - en lugar de las palancas. Sin embargo, estos dos botones de mando solamente proporcionan órdenes de activación y desactivación para un desplazamiento a la dirección y órdenes de activación y desactivación para un desplazamiento a la dirección - y no pueden una orden para la velocidad de accionamiento de la lente de zoom y de la lente de enfoque.
Además, una cámara de vídeo puede ser utilizada con teclas o elementos similares colocadas sobre el cuerpo principal de la cámara por un usuario o puede ser utilizada externamente usando un controlador remoto. En el caso de que se utilice el controlador remoto, si el controlador remoto no está provisto de una palanca correspondiente a la palanca de ajuste del zoom y a la palanca de ajuste del enfoque, es imposible ajustar una velocidad en un momento de accionamiento de la lente del zoom y de la lente de enfoque.
Conviene señalar que la descripción proporcionada con anterioridad se refiere al caso en donde se utiliza la cámara de vídeo. Varios aparatos electrónicos capaces de funcionar con una palanca de ajuste similar también tienen problemas similares.
Un objeto de la presente invención es proporcionar un aparato electrónico que pueda realizar una operación preferible con una estructura simple que no requiera un elemento de accionamiento que tenga un mecanismo complicado, y proporcionar un método de funcionamiento del aparato y un programa correspondiente.
Medios para resolver el problema.
La presente invención se define mediante las reivindicaciones.
EFECTO DE LA INVENCIÓN
Según la presente invención, solamente durante la utilización del botón de mando por el usuario, se cambia la posición de ajuste o el valor numérico de un objetivo de ajuste. Cuando el usuario detiene la operación, se detiene el cambio de la posición de ajuste o el valor numérico. Por tanto, es posible establecer una velocidad de funcionamiento preferible, una dirección operativa preferible y similares que reflejen fielmente la intención del usuario y para obtener una funcionabilidad preferible.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 es un diagrama de bloques que muestra un ejemplo de la estructura de un aparato electrónico (cámara de vídeo) según una forma de realización de la presente invención.
La Figura 2 es un diagrama de bloques que muestra un ejemplo de la estructura de un aparato terminal según la forma de realización de la presente invención.
La Figura 3 es un diagrama de secuencia que muestra un ejemplo de un estado de comunicación entre el aparato electrónico y el aparato terminal según la forma de realización de la presente invención.
La Figura 4 es un diagrama de explicación que muestra un ejemplo de visualización (Ejemplo 1) de una pantalla de funcionamiento del aparato terminal según la forma de realización de la presente invención.
La Figura 5 es un diagrama de explicación que muestra un ejemplo de visualización (Ejemplo 2) de una pantalla de funcionamiento del aparato terminal según la forma de realización de la presente invención.
La Figura 6 es un diagrama de flujo que muestra un ejemplo de un proceso de control (Ejemplo 1) según la forma de realización de la presente invención.
La Figura 7 es un diagrama de explicación que muestra un ejemplo de una pantalla de funcionamiento con el ejemplo de la Figura 6.
La Figura 8 es un diagrama característico que muestra un ejemplo de una relación entre una dirección de deslizamiento y una velocidad de accionamiento.
La Figura 9 es un diagrama de flujo que muestra un ejemplo de un proceso de control (Ejemplo 2) según la forma de realización de la presente invención.
La Figura 10 es un diagrama de explicación que muestra un ejemplo de una pantalla de funcionamiento con el ejemplo de la Figura 9.
FORMAS DE REALIZACIÓN DE LA INVENCIÓN
Se proporcionarán ejemplos de un aparato electrónico, de un método de funcionamiento del aparato y de un programa según una forma de realización de la presente invención en el siguiente orden con referencia a los dibujos.
1. Ejemplo de estructura de cámara de vídeo (Figura 1)
2. Ejemplo de estructura de aparato terminal (Figura 2)
3. Ejemplo de estado de comunicación (Figura 3)
4. Ejemplo de pantalla de funcionamiento (Ejemplo de teléfono inteligente: Figura 4)
5. Ejemplo de pantalla de funcionamiento (Ejemplo de terminal de tableta electrónica: Figura 5)
6. Ejemplo de proceso en el momento de utilización por parte del usuario (Ejemplo 1: Figura 6 a Figura 8)
7. Ejemplo de proceso en el momento de funcionamiento por parte del usuario (Ejemplo 2: Figura 9 y Figura 10) 8. Ejemplo modificado
1. Ejemplo de estructura de cámara de vídeo
La Figura 1 es un diagrama que muestra un ejemplo de la estructura de un aparato electrónico según una forma de realización de la presente invención. En este caso, como aparato electrónico, se proporciona como ejemplo el caso de utilización de una cámara de vídeo.
Se proporciona una cámara de vídeo 100 con un generador de imágenes 121, y la luz de imagen obtenida en una unidad de lente 110 montada en el interior del generador de imágenes 121. Para el generador de imágenes 121, por ejemplo, se utiliza un sensor de imagen CMOS (semiconductor de óxido metálico complementario) o un sensor de imagen CCD (dispositivo de carga acoplada).
La unidad de lente 110 está provista de una lente de zoom 111 y de una lente de enfoque 112 que pueden realizar un ajuste de zoom y un ajuste de enfoque, respectivamente. La lente de zoom 111 es accionada por una unidad de ajuste de lente de zoom 113. La lente de enfoque 112 es accionada por una unidad de ajuste de lente de enfoque 114. Además, la cámara de vídeo 100 está provista de un sensor 115 que detecta posiciones de la lente de zoom 111 y de la lente de enfoque 112. Además, la unidad de lente 110 está provista de un iris 116. El iris 116 es accionado por una unidad de ajuste del iris 117.
El accionamiento de las lentes por la unidad de ajuste de la lente de zoom 113 y por la unidad de ajuste de la lente de enfoque 114 se realiza sobre la base de las órdenes desde una unidad de control 131. En este caso, las velocidades a las que las unidades de ajuste 113 y 114 desplazan las posiciones de la lente de zoom 111 y de la lente de enfoque 112 se establecen sobre la base de una orden desde la unidad de control 131.
La activación del iris por la unidad de ajuste del iris 117 se realiza también sobre la base de una orden desde la unidad de control 131. Además, los datos de las posiciones de la lente de zoom 111 y de la lente de enfoque 112 detectados por el sensor 115 se transmite a la unidad de control 131.
Una señal de captación de imágenes obtenida por el generador de imágenes 121 al tomar una imagen se suministra a una unidad de procesamiento de captación de imágenes 122. La unidad de procesamiento de captación de imágenes 122 realiza varios procesamientos para la señal de captación de imágenes y convierte la señal de captación de imágenes en una señal de imagen con un formato predeterminado. La unidad de procesamiento de captación de imágenes 122 también realiza un ajuste del balance de blancos que se describirá más adelante. La salida de señal de imagen desde la unidad de procesamiento de captación de imágenes 122 se suministra a una unidad de grabación y de reproducción 123, con un monitor 124 conectado a una unidad de grabación y de reproducción 123 que muestra la imagen y un medio de grabación 125 que graba la señal de imagen. Para el medio de grabación 125, se utiliza, por ejemplo, un aparato de disco duro, una tarjeta de memoria en donde está incorporada una memoria de semiconductores, o similares. Además, la cámara de vídeo 100 puede emitir la señal de imagen desde un terminal de salida (no ilustrado).
Además, a la unidad de grabación y de reproducción 123, a través de una unidad de interfaz externa 126, se conecta una unidad de comunicación inalámbrica 127. La unidad de comunicación inalámbrica 127 está provista de una antena 128 y realiza una comunicación inalámbrica con un objetivo de comunicación dentro de una distancia corta de aproximadamente varios metros a varias decenas de metros. La unidad de comunicación inalámbrica 127 realiza la comunicación inalámbrica de conformidad con una norma de una red LAN inalámbrica (red de área local), por ejemplo. La cámara de vídeo 100 realiza la comunicación inalámbrica mediante la unidad de comunicación inalámbrica 127 y recibe órdenes y similares para ordenar las operaciones de los bloques de proceso en la cámara de vídeo 100. Además, en la cámara de vídeo 100, la unidad de comunicación inalámbrica 127 transmite, de forma inalámbrica, la señal de imagen o similar obtenida al tomar la imagen. El objetivo de comunicación con el que la unidad de comunicación inalámbrica 127 realiza la comunicación inalámbrica puede ser un aparato terminal 200 que se describirá más adelante o puede ser un punto de acceso para la red LAN inalámbrica.
La unidad de control 131 como una unidad de control de funcionamiento que controla las operaciones de las unidades de la cámara de vídeo 100 realiza la comunicación con las unidades en la cámara de vídeo 100 a través de una línea de bus interno. La memoria 133 almacena en ella un programa necesario para realizar un proceso de control por parte de la unidad de control 131. En este caso, la memoria 133 también almacena allí un programa necesario para hacer que la cámara de vídeo funcione como un servidor en un momento en que la cámara de vídeo 100 realiza la comunicación con un aparato terminal externo a través de la unidad de comunicación inalámbrica 127. La unidad de control 131 ejecuta el programa necesario para funcionar como el servidor, formando así un servidor HTTP 132. El servidor HTTP 132 es un protocolo de HTTP (Protocolo de Transferencia de Hipertexto) para comunicarse con un aparato terminal. En el caso de la cámara de vídeo 100, según la presente invención, el servidor HTTP 132 se comunica con un aparato terminal externo, haciendo que el aparato terminal externo funcione como un controlador remoto de la cámara de vídeo 100. El servidor HTTP 132 funciona como una unidad de control de visualización que controla la visualización de una pantalla de funcionamiento, y el servidor HTTP 132 transmite los datos necesarios para generar la pantalla de funcionamiento que se visualizará en el aparato terminal externo.
Además, la cámara de vídeo 100 está provista de una unidad operativa 134. La unidad operativa 134 incluye una tecla de accionamiento, un panel táctil o similar. Cuando un usuario utiliza la unidad operativa 134, se transmite una orden de funcionamiento a la unidad de control 131, y la unidad de control 131 controla cada una de las unidades para que sean llevadas a un estado operativo objeto de orden. En el caso de que la orden de funcionamiento se transmita desde el aparato terminal externo al servidor HTTP 132 en un momento en donde el servidor HTTP 132 se comunica con el
aparato terminal externo, la unidad de control 131 también controla cada una de las unidades para estar en un estado operativo objeto de orden.
2. Ejemplo de estructura de aparato terminal
La Figura 2 es un diagrama que muestra un ejemplo de la estructura del aparato terminal 200 tal como un objetivo con el que la cámara de vídeo 100 realiza la comunicación inalámbrica. El aparato terminal 200 es un aparato terminal relativamente pequeño denominado teléfono inteligente en algunos casos y es un aparato terminal relativamente grande provisto de un panel de visualización, denominado un terminal de tableta electrónica, en los demás casos. En ambos casos, se proporciona la misma estructura básica del interior del aparato terminal 200, y un punto diferente importante es el tamaño de un panel de visualización.
El aparato terminal 200 está provisto de una unidad de comunicación inalámbrica 202 a la que está conectada una antena 201. La unidad de comunicación inalámbrica 202 realiza la comunicación inalámbrica de conformidad con la norma de la LAN inalámbrica. La comunicación inalámbrica en la unidad de comunicación inalámbrica 202 se realiza bajo el control de una unidad de control 205. Además, la unidad de control 205 controla la visualización de una unidad de visualización 210.
El aparato terminal 200 está provisto de una unidad de panel táctil 203, y el panel táctil 203 detecta que una superficie de un panel de visualización 211 (Figura 4) de la unidad de visualización 210 es objeto de contacto con un dedo o con un lápiz. Como unidad de panel táctil 203, por ejemplo, se utiliza un tipo de capacitancia. Una señal de detección detectada por la unidad de panel táctil 203 se suministra a la unidad de control 205. Conviene señalar que la unidad de visualización 210 y la unidad de panel táctil 203 pueden formarse integralmente entre sí en algunos casos. Además, el aparato terminal 200 está provisto de una unidad operativa 204 en donde se dispone de una tecla de accionamiento y similares. La unidad operativa 204 puede estar provista de un panel táctil.
El aparato terminal 200 realiza la comunicación inalámbrica con la cámara de vídeo 100, por ejemplo, y accede al servidor HTTP 132 en la cámara de vídeo 100, haciendo que el aparato terminal 200 funcione como el controlador remoto de la cámara de vídeo 100. Es decir, la unidad de control 205 del aparato terminal 200 accede al servidor HTTP 132 de la cámara de vídeo 100, y la unidad de control 205 obtiene los datos necesarios para visualizar la pantalla de funcionamiento por la unidad de visualización 210. En este momento, por ejemplo, la unidad de control 205 utiliza software (programa) de un navegador web para acceder al servidor HTTP 132. A continuación, la pantalla de funcionamiento basada en los datos obtenidos se muestra en la unidad de visualización 210. Los datos de visualización de la pantalla de funcionamiento se generan ejecutando el navegador web. La pantalla de funcionamiento se obtiene reflejando un estado de la cámara de vídeo 100 en la misma en tiempo real, y la pantalla de funcionamiento muestra un valor de una condición de ajuste o similar.
3. Ejemplo de estado de comunicación
La Figura 3 es un diagrama que muestra un procedimiento en el caso en donde la unidad de comunicación inalámbrica 127 de la cámara de vídeo 100 y la unidad de comunicación inalámbrica 202 del aparato terminal 200 realizan la comunicación inalámbrica.
En primer lugar, la unidad de control 205 del aparato terminal 200 accede al servidor HTTP 132 de la cámara de vídeo 100 (Etapa S11). Después de lo que antecede, el servidor HTTP 132 y la unidad de control 205 realizan la autenticación entre sí (Etapa S12). En este momento, el servidor HTTP 132 reconoce datos sobre el aparato terminal 200 al que se accede. Más concretamente, el servidor HTTP 132 determina si el acceso se realiza desde el aparato terminal provisto de un panel de visualización relativamente pequeño, denominado teléfono inteligente, o si se realiza desde un aparato terminal provisto de un panel de visualización relativamente grande, denominado terminal de tableta electrónica. Sobre la base de la determinación, el servidor HTTP 132 establece la pantalla de funcionamiento que se transmitirá al aparato terminal 200 en una pantalla correspondiente a una especificación de la pantalla del aparato terminal 200. Más adelante se describirán ejemplos específicos de las pantallas de funcionamiento.
Una vez completado el proceso de autenticación, el servidor HTTP 132 comienza la transmisión de los datos de la pantalla de funcionamiento al aparato terminal 200 (Etapa S13). Al recibir los datos de la pantalla de funcionamiento por el aparato terminal 200, en la unidad de visualización 210, se muestra la pantalla de funcionamiento.
A continuación, cuando la unidad de panel táctil 203 detecta una operación táctil con respecto a un botón de mando o a un botón visualizado en la pantalla de funcionamiento (Etapa S14), la unidad de control 205 genera una orden de funcionamiento basada en la operación táctil detectada y transmite la orden de funcionamiento al servidor HTTP 132 (Etapa S15). Conviene señalar que, cuando la unidad de panel táctil 203 detecta operaciones continuas del usuario, las órdenes de funcionamiento se transmiten al servidor HTTP 132 a intervalos constantes de aproximadamente 100 milisegundos, por ejemplo.
El servidor HTTP 132 que recibe la orden de funcionamiento transmite la orden de funcionamiento a la unidad de control 131, y la unidad de control 131 transmite una orden correspondiente a la orden de funcionamiento a las
unidades de procesamiento en la cámara de vídeo 100 (Etapa S16). Las unidades de procesamiento que reciben la orden en la cámara de vídeo 100 realizan procesos basándose en dicha orden. Por ejemplo, cuando el servidor HTTP 132 recibe una orden relacionada con una operación de zoom, la unidad de control 131 transmite una orden de ajuste de lente de zoom basada en la orden de funcionamiento de zoom a la unidad de ajuste de lente de zoom 113. Además, cuando el servidor HTTP 132 recibe una orden relacionada con una operación de enfoque, la unidad de control 131 transmite una orden de ajuste de lente de enfoque basada en la orden de funcionamiento de enfoque a la unidad de ajuste de lente de enfoque 114.
Además, sobre la base de la orden de funcionamiento recibida, el servidor HTTP 132 actualiza los datos de la pantalla de funcionamiento para ser transmitidos al aparato terminal 200.
4. Ejemplo de pantalla de funcionamiento
La Figura 4 es un diagrama que muestra una pantalla de funcionamiento mostrada por el panel de visualización 211 del aparato terminal 200. En ejemplos de la Figura 4, se muestra el caso del aparato terminal 200 provisto del panel de visualización relativamente pequeño 211, denominado teléfono inteligente.
En el caso de este teléfono inteligente, se muestran cuatro tipos de pantallas de funcionamiento dependiendo de los modos de visualización. Las Figuras 4A a 4D muestran los cuatro tipos de pantallas de funcionamiento. En el caso de que se visualice cualquier pantalla de funcionamiento, en el panel de visualización 211, en un extremo superior de la pantalla, se visualiza una barra de estado 310 que indica un estado del aparato terminal 200. La barra de estado 310 indica la energía restante de la batería, la hora actual, un estado de comunicación inalámbrica o similar con gráficos, referencias numéricas o similares. Un contenido de visualización de la barra de estado 310 es actualizado por la unidad de control 205 del aparato terminal 200. Un contenido de visualización de una parte de visualización distinta de la barra de estado 310 se actualiza sobre la base de los datos transmitidos desde la cámara de vídeo 100.
La Figura 4A es una pantalla de funcionamiento de la lente. La pantalla de funcionamiento de la lente se visualiza cuando un usuario realiza una operación táctil en una pestaña de lente 331 en un lado inferior de la pantalla. En un lado superior de la pantalla de funcionamiento de la lente, se muestran una tecla de grabación 321 y una tecla de bloqueo 322. La tecla de grabación 321 es una tecla para dar una orden para iniciar y detener la grabación. La tecla de bloqueo 322 es una tecla para dar una orden para bloquear y desbloquear la tecla de grabación 321. La posición táctil de la tecla de bloqueo 322 es deslizada hacia la derecha por el usuario, dando así una orden de bloqueo o de desbloqueo. La tecla de grabación 321 y la tecla de bloqueo 322 se visualizan en cualquier modo en donde se muestre uno de los cuatro tipos de pantallas de funcionamiento.
Además, la pantalla de funcionamiento de la lente muestra una tecla de ajuste automático del iris 323, una tecla de ajuste automático del enfoque 324, un cursor de ajuste del iris 340, un cursor de ajuste del enfoque 350 y un cursor de ajuste del zoom 360. Además, la pantalla de funcionamiento de la lente muestra una unidad de visualización del valor de ajuste del iris 342, una unidad de visualización de valor de ajuste del enfoque 352 y una unidad de visualización del valor de ajuste del zoom 362. Estas unidades de visualización de valores de ajuste 342, 352 y 362 están dispuestas en los lados izquierdos de los cursores 340, 350 y 360, respectivamente. La unidad de visualización del valor de ajuste del iris 342 muestra un valor F. La unidad de visualización del valor de ajuste del enfoque 352 y de la unidad de visualización del valor de ajuste del zoom 362 muestran, cada una, un valor correspondiente a una posición de la lente detectada por el sensor 115. Los valores de la posición de la lente caen dentro de un margen de, por ejemplo, 0 a 99, por lo que se muestra un índice del estado de ajuste del enfoque o del estado de ajuste del zoom. De manera alternativa, en el caso de que el sensor 115 pueda detectar una distancia de enfoque de la lente de enfoque y una longitud focal de la lente de zoom, esos valores pueden mostrarse mediante las unidades de visualización de valores de ajuste 352 y 362.
Cuando el usuario selecciona la tecla de ajuste automático del iris 323, mediante la operación táctil, la cámara de vídeo 100 establece de manera automática un valor de ajuste del iris 116 de la unidad de lente 110. Cuando la tecla de enfoque automático 324 se selecciona mediante la operación táctil por parte del usuario, la cámara de vídeo 100 establece de manera automática un valor de ajuste de la lente de enfoque 112 de la unidad de lente 110.
En el cursor de ajuste del iris 340, se muestra un botón de mando 341. Una posición de visualización del botón de mando 341 en el cursor de ajuste del iris 340 corresponde al estado de ajuste del iris 116. El cursor de ajuste del iris 340 tiene escalas a intervalos constantes.
En el ejemplo de la Figura 4A, el botón de mando 341 está dispuesto, aproximadamente, en el centro del cursor de ajuste del iris 340, pero dependiendo del estado de ajuste del iris 116, la posición del botón de mando 341, en el cursor de ajuste del iris, cambia. Por lo tanto, tal como se muestra en la Figura 4A, el caso en donde el botón de mando 341 está dispuesto en el centro es solamente un ejemplo, y dependiendo del estado de ajuste del iris 116, la posición del botón de mando 341 cambia en cualquier momento.
Conviene señalar que, en el caso de que la operación del usuario de la tecla de ajuste automático del iris 323 establezca un modo de iris automático, el botón de mando 341 en el cursor de ajuste de iris 340 se muestra con un
brillo menor que el que realmente tiene. Al visualizar el botón de mando 341 con el brillo más bajo de esta manera, se indica el hecho de que un modo actual es un modo en donde no se puede realizar la operación del usuario para el iris.
El cursor de ajuste del enfoque 350 indica un botón de mando 351. En el estado en donde no se realiza la operación del usuario, el botón de mando 351 está dispuesto en una posición predeterminada como referencia en el centro del cursor de ajuste del enfoque 350. Además, cuando el usuario realiza una operación de arrastre deslizando el botón de mando 351 desde la posición predeterminada, la lente de enfoque 112 se acciona de conformidad con una dirección en donde se desplaza el botón de mando 351 y una magnitud del movimiento. Cuando el usuario detiene la operación táctil del botón de mando 351, la posición de visualización del botón de mando 351 vuelve a la posición predeterminada y se detiene el accionamiento de la lente de enfoque 112.
Conviene señalar que, en el caso de que el modo de enfoque automático se establezca mediante la operación del usuario para la tecla de ajuste automático del enfoque 324, el botón de mando 351, en el cursor de ajuste del enfoque 350, se muestra con un brillo menor que el que realmente tiene. Al visualizar el botón de mando 351 con el brillo más bajo de esta manera, se indica el hecho de que un modo actual es un modo en donde no se puede realizar la operación del usuario para el enfoque.
El cursor de ajuste del zoom 360 indica un botón de mando 361. En el estado en donde no se realiza la operación del usuario, el botón de mando 361 está dispuesto en una posición específica (posición predeterminada) en el centro del cursor de ajuste del zoom 360. Además, cuando el usuario realiza una operación de arrastre para deslizar el botón de mando 361 desde la posición predeterminada, la lente de zoom 111 se acciona de conformidad con una dirección en donde se desplaza el botón de mando 361 y una magnitud de movimiento. Cuando el usuario detiene la operación táctil del botón de mando 361, la posición de visualización del botón de mando 361 retorna a la posición predeterminada, se detiene el accionamiento de la lente de zoom 111 y la lente de zoom 111 se detiene en una posición en un momento en que la operación táctil se interrumpe. Para el cursor de ajuste de enfoque 350 y el cursor de ajuste de zoom 360, no se proporcionan escalas a intervalos constantes, sino que solamente se proporcionan marcas que indican las posiciones predeterminadas.
Conviene señalar que, la operación en el momento de la operación táctil para los botones de mando 351 y 361 se describirá en detalle con un diagrama de flujo mostrado en la Figura 6.
La Figura 4B muestra una pantalla de funcionamiento de balance de blancos. La pantalla de funcionamiento de balance de blancos se muestra cuando el usuario realiza una operación táctil en una pestaña de balance de blancos 332 en un lado inferior de la pantalla. La pantalla de funcionamiento de balance de blancos muestra una tecla de balance de blancos (ATW) de seguimiento automático 325, una tecla de balance de blancos automático (ATW) 325, un cursor de ajuste de ganancia R 370 y un cursor de ajuste de ganancia B 380. Además, la pantalla de funcionamiento de balance de blancos muestra una unidad de visualización de valor de ajuste de ganancia R 372 y una unidad de visualización de valor de ajuste de ganancia B 382. Estas unidades de visualización de valor de ajuste 372 y 382 están dispuestas en el lado izquierdo del cursor de ajuste de ganancia B 380.
El cursor de ajuste de ganancia R 370 indica un botón de mando 371, y la posición de visualización del botón de mando 371 en el cursor de ajuste de ganancia R 370 corresponde a un estado de ajuste de una ganancia R. El cursor de ajuste de ganancia B 380 indica un botón de mando 381, y la posición de visualización del botón de mando 381 en el cursor de ajuste de ganancia B 380, corresponde a un estado de ajuste de la ganancia. El cursor de ajuste de ganancia R 370 y el cursor de ajuste de ganancia B 380 tienen, cada uno, escalas a intervalos constantes.
La Figura 4C muestra una pantalla de funcionamiento de reproducción. La pantalla de funcionamiento de reproducción se visualiza cuando el usuario realiza una operación táctil en una pestaña de reproducción 333 en el lado inferior de la pantalla. En la pantalla de funcionamiento de reproducción, se muestra una pluralidad de teclas de accionamiento de reproducción 391 para indicar varios estados de reproducción, la reproducción y la parada, y similares de las señales de imagen grabadas por el medio de grabación 125 de la cámara de vídeo 100.
La Figura 4D muestra una pantalla de información. La pantalla de información se muestra cuando el usuario realiza una operación táctil en una pestaña de información 334 en el lado inferior de la pantalla. La pantalla de información está provista de una parte de información 392 que indica un nombre de modelo, un número de serie y similares de la cámara de vídeo 100 de un objetivo de comunicación. La parte de información 392 también indica información relativa a si es posible realizar el control remoto de la cámara de vídeo 100 o no lo es.
5. Ejemplo de pantalla de funcionamiento
La Figura 5 muestra un ejemplo de la pantalla de funcionamiento en el caso en donde el aparato terminal 200, que realiza la comunicación inalámbrica con la cámara de vídeo 100, es un terminal de tableta electrónica.
En el caso del terminal de tableta electrónica, se le proporciona un panel de visualización relativamente grande 211', de modo que una sola pantalla de funcionamiento realiza todas las indicaciones. Es decir, en el caso del terminal de
tableta electrónica, las cuatro pantallas de funcionamiento del teléfono inteligente mostradas en las Figuras 4A a 4D se compilan en una sola para su visualización.
Concretamente, en el panel de visualización 211', en un extremo superior de la pantalla, se muestra una barra de estado 410 que visualiza el estado del aparato terminal 200. Además, se muestran una tecla de grabación 421 y una tecla de bloqueo 422.
Además, en el panel de visualización 211', se visualizan un cursor de ajuste del iris 430, un cursor de ajuste del enfoque 440, un cursor de ajuste del zoom 450, un cursor de ajuste de ganancia R 460 y un cursor de ajuste de ganancia B 470. Los cursores de ajuste 430, 440, 450, 460 y 470 indican que se muestran los botones de mando 431, 441,451,461 y 471, respectivamente.
Conviene señalar que, para cada uno de los botones de mando 441 del cursor de ajuste del enfoque 440 y el botón de mando 451 del cursor de ajuste del zoom 450, el centro del cursor se establece como una posición predeterminada, y solamente cuando el usuario realiza la operación de arrastre, los botones de mando se desplazan desde la posición predeterminada.
En el lado izquierdo de los cursores de ajuste 430, 440, 450, 460 y 470, se muestran las unidades de visualización del valor de ajuste 342, 442, 452, 462 y 472, respectivamente.
Además, en el panel de visualización 211', se muestra una tecla de ajuste automático del iris 481, una tecla de ajuste automático del enfoque 482, una tecla de balance de blancos de seguimiento automático 483 y una tecla de balance de blancos de ajuste automático 484.
Además, en el panel de visualización 211', se muestran una pluralidad de teclas de accionamiento de reproducción 491 y una parte de información 492.
6. Ejemplo de proceso en el momento de utilización por parte del usuario: Ejemplo 1
Posteriormente, sobre la base del diagrama de flujo mostrado en la Figura 6, se proporcionará una descripción de un ejemplo de proceso (Ejemplo 1) en el caso en donde el usuario entre en contacto y utilice la pantalla de funcionamiento.
En este caso, se da el caso en donde el usuario pulsa el botón de mando 351 del cursor de ajuste del enfoque 350 en la pantalla de funcionamiento de la lente mostrada en la Figura 4A. Conviene señalar que, en el caso de que el usuario pulse el botón de mando 361 del cursor de ajuste del zoom 360 en la pantalla de funcionamiento de la lente mostrada en la Figura 4A, se llevará a cabo la misma operación de proceso.
En primer lugar, la unidad de control 205 del aparato terminal 200 determina si el botón de mando 351, en la posición predeterminada en el centro del cursor de ajuste de enfoque 350, es objeto de contacto con un dedo o similar del usuario, o no lo es (Etapa S21). En esta determinación, en el caso de que se determine que no se pulsa el botón de mando 351, el ajuste de enfoque no se realiza en una condición de espera.
En la Etapa S21, cuando se determina que el botón de mando está pulsado, la unidad de control 205 determina si la operación de arrastre para deslizar la posición pulsada a lo largo del cursor de ajuste de enfoque 350 desde la posición predeterminada (posición central) se realiza o no (Etapa S22). En el caso de que no se lleve a cabo la operación de arrastre, la unidad de control 205 vuelve a la determinación en la Etapa S21.
En la etapa S22, en el caso en donde se determina que se realiza la operación de arrastre, la unidad de control 205 hace que la posición de visualización del botón de mando 351, en el cursor de ajuste del enfoque 350, se modifique con el cambio de la posición pulsada de la operación de arrastre (Etapa S23). Además, sobre la base de la dirección en donde se realiza la operación de arrastre desde el centro y la magnitud de deslizamiento de la operación de arrastre, la unidad de control 205 genera una orden para indicar la dirección y la velocidad y transmite la orden a la cámara de vídeo 100 (Etapa S24). La transmisión de la orden se realiza a intervalos constantes (por ejemplo, 100 milisegundos) durante la operación táctil.
Después de lo que antecede, la unidad de control 205 determina si se continúa, o no, pulsando el botón de mando 351 por parte del usuario (Etapa S25). Cuando la unidad de control 205 determina que la pulsación continúe, la unidad de control 205 determina si la posición de pulsación se cambia o no (Etapa S26). En el caso de que no se cambie la posición táctil, la unidad de control 205 retorna a la determinación en la Etapa S25. Además, en el caso en donde se determina que la posición táctil se cambia en la Etapa S26, la unidad de control 205 retorna a la determinación en la Etapa S23.
A continuación, en la Etapa S25, cuando se determina que la pulsación del botón de mando 351 ha finalizado, la unidad de control 205 detiene la transmisión de la orden a la cámara de vídeo 100 (Etapa S27). Además, sobre la base de la orden del servidor HTTP 132 de la cámara de vídeo 100, la posición de visualización del botón de mando
351 se retorna a la posición predeterminada en el centro (Etapa S28). Después de lo que antecede, la unidad de control 205 vuelve a la función de determinación en la Etapa S21.
En un ejemplo de la pantalla mostrada en la Figura 7A, se muestra el estado en donde el botón de mando 351, en la posición predeterminada en el centro del cursor de ajuste del enfoque 350, se pulsa con un dedo f1 del usuario. Cuando el dedo f1 toca la posición de visualización del botón de mando 351, la unidad de control 205 se desplaza desde la Etapa S21 a la función de determinación de la Etapa S22.
En un ejemplo de la pantalla mostrada en la Figura 7b, se muestra el estado en donde la posición táctil del dedo f2 se desliza hacia la derecha a lo largo del cursor de ajuste del enfoque 350 con la posición predeterminada como un punto estándar. De esta manera, cuando se desliza la posición táctil, dicha orden de ajuste del enfoque de que la posición de ajuste del enfoque de la lente de enfoque 112 esté en la dirección (alejada en este caso), a una velocidad correspondiente a la magnitud de deslizamiento, se transmita desde el aparato terminal 200 a la cámara de vídeo 100. En el caso de que la posición táctil se deslice desde el centro en una dirección opuesta a la dirección en el ejemplo de la Figura 7B, se transmite dicha orden de ajuste del enfoque de que la posición de ajuste del enfoque de la lente de enfoque 112 está en la dirección -(cerca en este caso).
En el estado mostrado en la Figura 7B, cuando se modifica la posición táctil con el dedo del usuario, la velocidad y la dirección de la orden de ajuste de enfoque se cambia de conformidad con la posición táctil.
En un ejemplo de la pantalla mostrada en la Figura 7c, se ilustra el estado en donde un dedo f3 del usuario se libera de la pantalla. Al mismo tiempo, cuando el dedo f3 del usuario se libera de la pantalla, se detiene la transmisión de la orden de ajuste del enfoque. A continuación, tal como se muestra en la Figura 7C, la posición del botón de mando 351 se retorna de manera automática a la posición predeterminada. En este momento, el botón de mando 351 se desplaza de manera gradual desde la posición de deslizamiento mostrada en la Figura 7B a la posición predeterminada durante un breve período de tiempo (por ejemplo, aproximadamente 0.5 segundos). De esta manera, lleva algún tiempo hacer que el botón de mando 351 retorne a la posición original predeterminada, con el resultado de que el usuario capta con facilidad el movimiento del botón de mando 351, dando como resultado un buen estado de visualización. Además, la transmisión de la orden de ajuste de enfoque se detiene al mismo tiempo cuando el dedo f3 del usuario se libera de la pantalla, por lo que es posible realizar un ajuste preciso para obtener un estado según lo previsto por el usuario. Por tanto, la cámara de vídeo 100 puede obtener la misma operabilidad utilizando el panel táctil que en el caso en donde se proporciona una palanca de ajuste mecánico.
Conviene señalar que, cuando el dedo f3 del usuario se libera de la pantalla, el botón de mando 351 puede retornar, de manera inmediata, a la posición original predeterminada. Además, mediante un cambio de modo mediante el accionamiento del usuario, la velocidad en el momento en que el botón de mando 351 retorna a la posición original predeterminada puede ser libremente ajustable.
Además, la Figura 7C muestra que el estado en donde cuando el dedo f3 del usuario se libera de la pantalla, el botón de mando 351 retorna a la posición predeterminada. Sin embargo, cuando la posición en la pantalla que entra en contacto con el dedo f3 del usuario está fuera de la posición de visualización del botón de mando 351, el botón de mando 351 también retorna a la posición predeterminada.
La Figura 8 es un diagrama que muestra una característica Va entre una magnitud de movimiento en la pantalla en un momento en que el botón de mando 351 se desplaza desde la posición predeterminada (posición central) en el cursor de ajuste del enfoque 350 mediante la operación táctil y una velocidad de accionamiento de la lente de enfoque 112 por la unidad de ajuste de la lente de enfoque 114.
El eje lateral mostrado en la Figura 8 indica la magnitud de desplazamiento (distancia de desplazamiento) del botón de mando 351 desde la posición central (posición en 0). El eje vertical mostrado en la Figura 8 indica la velocidad de accionamiento de la lente de enfoque 112 establecida sobre la base de una orden en cada una de las magnitudes de desplazamiento. La dirección de accionamiento de la lente de enfoque 112 es opuesta con respecto a la posición central.
Tal como se muestra como la característica Va en la Figura 8, cuanto más lejos se coloca el botón de mando desde la posición central, más rápida se vuelve gradualmente la velocidad de accionamiento. Por el contrario, cuanto más cerca se coloca el botón de mando de la posición central, más lenta se vuelve la velocidad de accionamiento. Estableciendo la característica Va que tiene la curva descrita con anterioridad, es posible lograr tanto una operación de movimiento a una posición de enfoque lejana a alta velocidad como una operación de realización de un ajuste de enfoque preciso en las proximidades de un punto de enfoque o similar.
La característica de cambio de velocidad Va de la curva mostrada en la Figura 8 es simplemente a modo de ejemplo. Por ejemplo, se puede utilizar dicha característica de que la magnitud de desplazamiento y la velocidad de accionamiento cambien de manera lineal.
Conviene señalar que, desde la Figura 6 a la Figura 8, la operación en el momento en que el usuario utiliza el cursor de ajuste de enfoque 350 en la pantalla de funcionamiento, pero la misma operación se realiza también cuando el usuario utiliza el cursor de ajuste del zoom 360 en la pantalla de funcionamiento. Es decir, el botón de mando 361 del cursor de ajuste del zoom 360 también se visualiza en la posición central en el estado en donde no se realiza la operación del usuario. Cuando se lleva a cabo la operación del usuario de deslizar el botón de mando 361 desde la posición central, el aparato terminal 200 transmite una orden de ajuste del zoom para dar una orden sobre la velocidad de accionamiento y la dirección de conducción de la lente de zoom 111. Además, cuando un dedo del usuario es liberado de la pantalla de funcionamiento, el aparato terminal 200 detiene la salida de la orden de ajuste del zoom y realiza un proceso para hacer retornar la posición de visualización del botón de mando 361 a la posición central.
Mediante dicha aplicación a la operación de zoom tal como se describió con anterioridad, es posible realizar un ajuste preciso para obtener un estado de zoom según lo previsto por el usuario.
Para los otros cursores de ajuste 340, 370 y 380 mostrados en la Figura 4, el botón de mando 341, 371, 381 está dispuesto para indicar los estados de ajuste en ese momento. En el caso de la Figura 4, se puede distinguir si el cursor tiene el botón que retorna a la posición predeterminada de la existencia o no existencia de escalas en el cursor.
A la operación en la pantalla de funcionamiento para un terminal de tableta electrónica que se muestra en la Figura 5, se aplica el mismo proceso. Es decir, para el cursor de ajuste del enfoque 440 y el cursor de ajuste del zoom 450 en la pantalla de funcionamiento del terminal de tableta electrónica mostrado en la Figura 5, se realiza el proceso del diagrama de flujo ilustrado en la Figura 6. Para los cursores de ajuste 430, 460 y 470, excluyendo el cursor de ajuste de enfoque 440 y el cursor de ajuste del zoom 450, los botones 431,461,471 están dispuestos para indicar los estados de ajuste en ese momento.
7. Ejemplo de proceso en el momento de funcionamiento por parte del usuario: Ejemplo 2
Posteriormente, sobre la base de un diagrama de flujo mostrado en la Figura 9 y un ejemplo de una pantalla mostrada en la Figura 10, se proporcionará una descripción sobre un ejemplo (Ejemplo 2) de un proceso en el caso en donde el usuario entra en contacto y utiliza la pantalla de funcionamiento. En el diagrama de flujo que se muestra en la Figura 9, para las mismas etapas que en el diagrama de flujo de la Figura 6, se proporcionan las mismas referencias numéricas de etapa.
En el caso del Ejemplo 1, el usuario pulsa primero el botón de mando 351 en la posición predeterminada en el cursor de ajuste del enfoque 350, con el resultado de que la posición del botón de mando 351 se puede desplazar. Por otro lado, en el caso del Ejemplo 2, en el estado en donde el botón de mando 351 está dispuesto en la posición predeterminada en el cursor de ajuste del enfoque 350, cuando el usuario pulsa cualquier posición en el cursor de ajuste del enfoque 350, el botón de mando 351 se desplaza a la posición táctil.
Es decir, tal como se muestra en la Figura 9, la unidad de control 205 del aparato terminal 200 determina si un dedo o similar del usuario pulsa cualquier posición en el cursor de ajuste de enfoque 350 o no (Etapa S31). En el caso de que se determine que no se pulsa ninguna posición en el cursor de ajuste del enfoque 350, el ajuste de enfoque no se realiza y permanece en espera.
En el caso en donde se determina que cualquier posición en el cursor de ajuste del enfoque 350 se pulsa en la Etapa S31, la unidad de control 205 cambia la posición de visualización del botón de mando 351 en el cursor de ajuste del enfoque 350 a una posición pulsada (Etapa S23). En este momento, el botón de mando 351 se desplaza de manera inmediata desde la posición predeterminada a la posición táctil, por ejemplo. De manera alternativa, puede llevar algún tiempo hacer que el botón de mando 351 se desplace desde la posición predeterminada a la posición táctil.
Las etapas posteriores a la Etapa S23 son las mismas que en el diagrama de flujo de la Figura 6.
El ejemplo de la pantalla mostrada en la Figura 10A muestra el estado en donde una posición específica distinta del centro en el cursor de ajuste del enfoque 350 es pulsada por un dedo f11 del usuario. De esta manera, cuando se produce la pulsación con el dedo f11, la unidad de control 205 realiza la detección táctil en la Etapa S31.
Cuando se realiza la detección táctil en el estado mostrado en la Figura 10A, la pantalla de funcionamiento cambia al estado mostrado en la Figura 10B. Es decir, la posición de visualización del botón de mando 351 se cambia a una posición táctil t en el cursor de ajuste de enfoque 350. Una orden de ajuste de enfoque en una dirección y una velocidad correspondiente a la posición del botón de mando 351 en este momento se transmite desde el aparato terminal 200 a la cámara de vídeo 100.
Un proceso en el caso de que el dedo del usuario se libere de la pantalla de funcionamiento es el mismo que en el Ejemplo 1 mostrado en la Figura 7.
Es decir, tal como se muestra en la Figura 10C, al mismo tiempo que cuando un dedo f12 del usuario se libera de la pantalla, se detiene la transmisión de la orden de ajuste del enfoque. A continuación, tal como se muestra en la Figura
10C, la posición del botón de mando 351 se retorna de manera automática a la posición predeterminada. En este momento, el botón de mando 351 se desplaza de forma gradual utilizando un período de tiempo predeterminado desde la posición deslizada mostrada en la Figura 10B hasta la posición predeterminada. De manera alternativa, cuando el dedo f12 del usuario se libera de la pantalla, el botón de mando 351 se ajusta para retornar de manera inmediata a la posición predeterminada.
En el caso del Ejemplo 2 descrito con referencia a la Figura 9 y a la Figura 10, no es necesario realizar primero una operación de deslizamiento del botón de mando 351. Por tanto, en el caso del Ejemplo 2, se puede realizar una operación más rápida que en el caso del Ejemplo 1. Sin embargo, solamente pulsando la posición en el cursor de ajuste de enfoque 350 con el dedo, la operación se realiza de manera inmediata, por lo que se puede realizar una operación errónea. Por tanto, es deseable que uno de entre el proceso del Ejemplo 1 y el proceso del Ejemplo 2 pueda seleccionarse mediante una operación de usuario.
Es decir, el ajuste se realiza para hacer posible la selección de modos de funcionamiento. Cuando se selecciona un primer modo, la unidad de control 205 realiza el proceso del diagrama de flujo mostrado en la Figura 6. Cuando se selecciona un segundo modo, la unidad de control 205 realiza el proceso del diagrama de flujo mostrado en la Figura 9. La selección puede ser realizada tal como se describió con anterioridad, con el resultado de que el aparato terminal 200 proporciona la operabilidad favorita del usuario.
8. Ejemplo modificado
Conviene señalar que, en el ejemplo de la forma de realización anterior, al proceso en el caso en donde el panel de visualización 211 del aparato terminal 200, que realiza el control remoto de la cámara de vídeo 100, muestra la pantalla de funcionamiento, siendo aplicada, en este caso, la tecnología de la presente invención. Sin embargo, por ejemplo, la unidad operativa 134 de la cámara de vídeo 100 puede estar provista de un panel de visualización que tiene un panel táctil, y en el panel de visualización del cuerpo principal de la cámara de vídeo, puede mostrarse la misma pantalla de funcionamiento. En este caso, por ejemplo, bajo el control de la unidad de control 131 de la cámara de vídeo 100, se visualiza la pantalla de funcionamiento.
Además, en el ejemplo de la forma de realización anterior, la cámara de vídeo 100 está provista de la unidad de control 131 que funciona como el servidor HTTP 132, y utilizando el programa del navegador web mantenido por el aparato terminal 200, dicho aparato terminal 200 accede al servidor HTTP 132. Sin embargo, el aparato terminal o un aparato informático puede tener un programa dedicado para el control remoto, y un aparato en donde se carga el programa puede funcionar como un controlador remoto. En este caso, el programa puede ejecutar los procesos que se muestran en la Figura 6 y en la Figura 9.
El servidor HTTP 132 proporcionado a la unidad de control 131 también es simplemente a modo de ejemplo, y puede utilizarse un servidor que realice la comunicación con otro protocolo. Por ejemplo, se puede preparar un servidor de un tipo al que se pueda acceder mediante la ejecución de un programa dedicado para control remoto.
Además, en el ejemplo de la forma de realización anterior, la tecnología de la presente invención se aplica a la visualización de la pantalla de funcionamiento en el caso en donde la lente de zoom 111 y la lente de enfoque 112 de la unidad de lente 110 de la cámara de vídeo 100 estén ajustadas. Sin embargo, la tecnología se puede aplicar a la pantalla de funcionamiento en un momento en que se ajusta otra posición o parámetro.
Por ejemplo, cuando el usuario utiliza una función de reloj proporcionada al aparato electrónico para introducir valores numéricos de tiempo actual, tiempo de reserva o similar, una unidad de control del reloj genera un cursor de ajuste de tiempo tal como el cursor de ajuste del enfoque 350 para ser mostrado. A continuación, la unidad de control del reloj establece una dirección y una velocidad a la que el tiempo cambia de conformidad con la magnitud de desplazamiento del botón de mando en el cursor desde la posición predeterminada.
Cuando se establecen valores numéricos tales como varios parámetros distintos del tiempo, también se puede aplicar el mismo proceso.
Mediante dicha configuración, es posible introducir con facilidad varios valores numéricos pulsando la pantalla de funcionamiento.
Además, en el ejemplo de la forma de realización anterior, se describe el ejemplo en donde el usuario pulsa la pantalla de funcionamiento con el dedo. Sin embargo, se puede utilizar un lápiz táctil dedicado o similar para pulsar la pantalla de funcionamiento. Además, mediante un método distinto de la operación táctil, se puede seleccionar el botón de mando o similar en la pantalla de funcionamiento.
Por ejemplo, al aparato terminal 200, se conecta un dispositivo señalador tal como un ratón. A continuación, cuando el botón de mando 351 o similar del cursor de ajuste del enfoque 350 se selecciona mediante un ajuste de la posición del cursor en la pantalla con el dispositivo señalador y una operación de arrastre después de una operación de clic, se realiza el proceso en el diagrama de flujo que se muestra en la Figura 6. Como resultado, el método de la presente
invención se puede aplicar a un aparato terminal o a un aparato informático en donde una unidad de visualización no está provista de un panel táctil.
Además, en la forma de realización anterior, se proporciona como ejemplo la aplicación al funcionamiento de la cámara de vídeo como el aparato electrónico. Sin embargo, se puede realizar la aplicación a otros diversos aparatos electrónicos. Para el aparato terminal, se puede llevar a cabo la aplicación a un aparato terminal distinto al teléfono inteligente y al terminal de tableta electrónica. Por ejemplo, se puede aplicar un aparato de ordenador personal al aparato terminal.
Además, las estructuras y procesos descritos en las reivindicaciones de la presente invención no se limitan a los ejemplos de la forma de realización anterior. Los expertos en esta técnica deben entender que pueden producirse diversas modificaciones, combinaciones y alteraciones en la medida en que estén dentro del alcance de las reivindicaciones adjuntas.
Descripción de las referencias numéricas
100 cámara de vídeo
110 unidad de lente
111 lentes de zoom
112 lente de enfoque
113 unidad de ajuste de la lente de zoom
114 unidad de ajuste de la lente de enfoque
115 sensor
121 generador de imágenes
122 unidad de procesamiento de captación de imágenes
123 unidad de reproducción de grabación
124 monitor
125 medio de grabación
126 unidad de interfaz externa
127 unidad de comunicación inalámbrica
128 antena
131 unidad de control
132 servidor HTTP
133 memoria
134 unidad operativa
200 aparato terminal
201 antena
202 unidad de comunicación inalámbrica
203 unidad de panel táctil
204 tecla de accionamiento
205 unidad de control
memoria
unidad de visualización
,211' panel de visualización
cursor de ajuste del iris
botón de mando
unidad de visualización del valor de ajuste del iris cursor de ajuste de enfoque
botón de mando
unidad de visualización del valor de ajuste de enfoque cursor de ajuste de zoom
botón de mando
unidad de visualización del valor de ajuste del zoom cursor de ajuste del iris
botón de mando
unidad de visualización del valor de ajuste del iris cursor de ajuste de enfoque
botón de mando
unidad de visualización del valor de ajuste de enfoque cursor de ajuste de zoom
botón de mando
unidad de visualización del valor de ajuste del zoom
Claims (7)
1. Un aparato electrónico (200), que comprende:
una unidad de procesamiento (205) capaz de establecer un valor numérico de un estado de ajuste de zoom; una unidad de control de visualización (205) configurada para mostrar un botón de mando (361) que se puede desplazar sobre un cursor (360) de conformidad con una operación de arrastre del usuario tal como una pantalla de ajuste (211) del valor numérico; y
una unidad de control de operación (205) configurada para modificar el valor numérico dependiendo de un cambio de la posición del botón mediante la operación de arrastre del usuario en la pantalla de ajuste mostrada por el control de la unidad de control de visualización, siendo la posición de visualización del botón en el cursor modificada con el cambio de una posición táctil de la operación de arrastre del usuario; en donde
cuando no se inicia la operación de arrastre del usuario, la unidad de control de visualización está configurada para establecer una posición del botón de mando en el centro del cursor;
cuando la operación de arrastre del usuario en el botón de mando ya no se realiza, la unidad de control de operación está configurada para dejar de cambiar el valor numérico de manera inmediata y,
cuando ya no se realiza una operación táctil de la operación de arrastre del usuario, la unidad de control de visualización está configurada para hacer retornar la posición de visualización del botón de mando al centro del cursor en un período de tiempo predeterminado; y en donde el aparato electrónico es un teléfono inteligente; caracterizado porque:
la unidad de control de operación está configurada, además, para modificar la velocidad a la que se cambia el valor numérico de conformidad con el desplazamiento del botón de mando desde el centro del cursor de modo que cuanto más se desplace el botón de mando desde el centro del cursor mediante la operación de arrastre del usuario, tanto mayor será la velocidad a la que la unidad de control de operación cambia el valor numérico.
2. El aparato electrónico según la reivindicación 1, en donde
en la pantalla de ajuste (211), mostrada por el control de la unidad de control de visualización (205), después de que se realice una detección táctil para el botón de mando (361) situado en el centro del cursor (360), se realiza la operación de arrastre del usuario en el cursor con la posición en donde se realiza la operación de detección táctil como un punto base, cambiando así la posición del botón de mando.
3. El aparato electrónico según la reivindicación 1, en donde
en la pantalla de ajuste (211), mostrada mediante el control de la unidad de control de visualización (205), se realiza una detección táctil en el cursor (360), cambiando así la posición del botón de mando (361) a una posición en donde se realiza la detección táctil.
4. El aparato electrónico según la reivindicación 1, en donde el centro del cursor (360) es una posición predeterminada del botón de mando (361).
5. El aparato electrónico según la reivindicación 1, en donde el estado de ajuste del zoom es un estado de ajuste del zoom de la imagen.
6. Un método de operación de un teléfono inteligente, que comprende:
un proceso de visualización de mostrar un botón de mando (361) que puede desplazarse sobre un cursor (360) mediante una operación de arrastre del usuario tal como una pantalla de ajuste (211) para establecer un valor numérico de un estado de ajuste de zoom sobre la base de la operación de arrastre del usuario; y
un proceso de control de modificar el valor numérico en función de un cambio de la posición del botón de mando mediante la operación de arrastre del usuario en la pantalla de ajuste mostrada en el proceso de visualización, siendo la posición de visualización del botón de mando en el cursor modificada con el cambio de una posición táctil de la operación de arrastre del usuario; en donde
cuando no se inicia la operación de arrastre del usuario, el proceso de visualización establece una posición del botón de mando en el centro del cursor,
cuando ya no se realiza la operación de arrastre del usuario sobre el botón de mando, el proceso de control deja de cambiar el valor numérico de manera inmediata, y
cuando ya no se realiza una operación táctil de la operación de arrastre del usuario, el proceso de visualización hace retornar la posición de visualización del botón de mando al centro del cursor en un período de tiempo predeterminado; y caracterizado porque:
el proceso de control modifica aún más la velocidad a la que se cambia el valor numérico de conformidad con el desplazamiento del botón de mando desde el centro del cursor de modo que cuanto más se desplace el botón de mando desde el centro del cursor mediante la operación de arrastre del usuario, tanto mayor será la velocidad a la que el proceso de control cambia el valor numérico.
7. Un programa para hacer que un teléfono inteligente realice:
una etapa de visualización de mostrar un botón de mando (361) que se puede desplazar en un cursor (360) mediante una operación de arrastre del usuario tal como una pantalla de ajuste (211) para establecer un valor numérico de un estado de ajuste de zoom sobre la base de la operación de arrastre del usuario; y
una etapa de control de modificar el valor numérico dependiendo de un cambio de la posición del botón de mando mediante la operación de arrastre del usuario en la pantalla de ajuste mostrada en la etapa de visualización, siendo modificada la posición de visualización del botón de mando en el cursor con el cambio de una posición táctil de la operación de arrastre del usuario; en donde
cuando no se inicia la operación de arrastre del usuario, la etapa de visualización establece una posición del botón de mando en el centro del cursor,
cuando ya no se realiza la operación de arrastre del usuario en el botón de mando, la etapa de control deja de cambiar el valor numérico de manera inmediata, y
cuando ya no se realiza una operación táctil de la operación de arrastre del usuario, la etapa de visualización hace retornar la posición de visualización del botón de mando al centro del cursor en un período de tiempo predeterminado; y caracterizado porque:
la etapa de control modifica aún más la velocidad a la que se cambia el valor numérico de conformidad con el desplazamiento del botón de mando desde el centro del cursor de modo que cuanto más se desplaza el botón de mando desde el centro del cursor mediante la operación de arrastre del usuario, tanto mayor será la velocidad a la que la etapa de control cambia el valor numérico.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012181543 | 2012-08-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2903554T3 true ES2903554T3 (es) | 2022-04-04 |
Family
ID=50149622
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13830845T Active ES2702356T3 (es) | 2012-08-20 | 2013-07-18 | Equipo electrónico, método de operación del equipo, y programa |
ES18206821T Active ES2903554T3 (es) | 2012-08-20 | 2013-07-18 | Aparato electrónico, método de funcionamiento del aparato y programa |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13830845T Active ES2702356T3 (es) | 2012-08-20 | 2013-07-18 | Equipo electrónico, método de operación del equipo, y programa |
Country Status (5)
Country | Link |
---|---|
US (1) | US10331320B2 (es) |
EP (2) | EP3480684B1 (es) |
JP (2) | JP6070708B2 (es) |
ES (2) | ES2702356T3 (es) |
WO (1) | WO2014030290A1 (es) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160063812A (ko) * | 2014-11-27 | 2016-06-07 | 삼성전자주식회사 | 화면 구성 방법, 전자 장치 및 저장 매체 |
JP2016162132A (ja) * | 2015-02-27 | 2016-09-05 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
USD784394S1 (en) * | 2015-09-11 | 2017-04-18 | Under Armour, Inc. | Display screen with graphical user interface |
SG10201507782WA (en) * | 2015-09-18 | 2017-04-27 | Paul Michael Whiten | User interface for searching a large data set |
AT517687B1 (de) * | 2015-09-23 | 2017-04-15 | Omicron Electronics Gmbh | Prüfvorrichtung und Verfahren zum Steuern einer Prüfvorrichtung |
US10863267B2 (en) * | 2015-11-10 | 2020-12-08 | Savant Systems, Inc. | Volume control for audio/video devices |
JP6815886B2 (ja) * | 2017-02-14 | 2021-01-20 | キヤノン株式会社 | 撮像装置、その制御方法、プログラム |
JP6808550B2 (ja) * | 2017-03-17 | 2021-01-06 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2020230851A1 (ja) * | 2019-05-16 | 2020-11-19 | Hoya株式会社 | 内視鏡用プロセッサ、プログラムおよび情報処理方法 |
JP2023044327A (ja) | 2021-09-17 | 2023-03-30 | パナソニックIpマネジメント株式会社 | 撮像装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3387135B2 (ja) | 1993-01-21 | 2003-03-17 | ソニー株式会社 | ビデオカメラ |
JPH07234981A (ja) | 1994-02-24 | 1995-09-05 | Mitsubishi Electric Corp | プラント操作情報処理装置 |
JPH11212726A (ja) * | 1998-01-29 | 1999-08-06 | Omron Corp | 入力装置 |
JP2001075712A (ja) | 1999-08-31 | 2001-03-23 | Sony Corp | 情報処理装置及び情報処理方法並びにプログラム格納媒体 |
JP2001350579A (ja) | 2000-06-07 | 2001-12-21 | Seiko Epson Corp | 携帯情報機器 |
JP2005321896A (ja) * | 2004-05-06 | 2005-11-17 | Canon Inc | 表示制御方法及び表示制御装置 |
JP4546202B2 (ja) * | 2004-09-28 | 2010-09-15 | キヤノン株式会社 | 映像受信装置とその制御方法とプログラム及び記憶媒体 |
JP2006338406A (ja) | 2005-06-02 | 2006-12-14 | Sharp Corp | 通信端末装置、情報処理装置、通信システム、映像表示システム、通信端末制御方法、情報処理方法、通信端末制御プログラム、情報処理プログラムおよび記録媒体 |
JP2007065385A (ja) | 2005-08-31 | 2007-03-15 | Canon Inc | 光学機器 |
JP4612886B2 (ja) | 2005-10-26 | 2011-01-12 | キヤノン株式会社 | レンズ装置および撮像システム |
JP4652248B2 (ja) | 2006-02-22 | 2011-03-16 | 富士フイルム株式会社 | 撮影システム、撮影制御方法、及び撮影装置 |
JP5339114B2 (ja) * | 2007-10-12 | 2013-11-13 | 株式会社ニコン | 顕微鏡 |
US20110027687A1 (en) * | 2009-07-31 | 2011-02-03 | Asahi Glass Company, Limited | Electrolyte material, liquid composition and membrane/electrode assembly for polymer electrolyte fuel cell |
JP5237325B2 (ja) * | 2010-04-28 | 2013-07-17 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、ビデオゲーム処理方法、およびビデオゲーム処理プログラム |
JP5379739B2 (ja) | 2010-04-30 | 2013-12-25 | キヤノン株式会社 | レンズ装置 |
JP5622447B2 (ja) | 2010-06-11 | 2014-11-12 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法 |
JP5464083B2 (ja) * | 2010-07-07 | 2014-04-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP5791256B2 (ja) | 2010-10-21 | 2015-10-07 | キヤノン株式会社 | 表示制御装置、表示制御方法 |
JP2012113110A (ja) | 2010-11-24 | 2012-06-14 | Canon Inc | 電子機器 |
US20130014057A1 (en) * | 2011-07-07 | 2013-01-10 | Thermal Matrix USA, Inc. | Composite control for a graphical user interface |
JP5516532B2 (ja) * | 2011-08-09 | 2014-06-11 | カシオ計算機株式会社 | 電子機器、及びプログラム |
-
2013
- 2013-07-18 EP EP18206821.3A patent/EP3480684B1/en active Active
- 2013-07-18 JP JP2014531486A patent/JP6070708B2/ja active Active
- 2013-07-18 US US14/421,572 patent/US10331320B2/en active Active
- 2013-07-18 ES ES13830845T patent/ES2702356T3/es active Active
- 2013-07-18 ES ES18206821T patent/ES2903554T3/es active Active
- 2013-07-18 EP EP13830845.7A patent/EP2887200B1/en active Active
- 2013-07-18 WO PCT/JP2013/004395 patent/WO2014030290A1/ja active Application Filing
-
2016
- 2016-12-28 JP JP2016255254A patent/JP6384541B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
ES2702356T3 (es) | 2019-02-28 |
JP6070708B2 (ja) | 2017-02-01 |
EP3480684A1 (en) | 2019-05-08 |
EP2887200A1 (en) | 2015-06-24 |
US10331320B2 (en) | 2019-06-25 |
JPWO2014030290A1 (ja) | 2016-07-28 |
US20150227303A1 (en) | 2015-08-13 |
EP3480684B1 (en) | 2021-12-15 |
JP2017076433A (ja) | 2017-04-20 |
EP2887200A4 (en) | 2016-05-11 |
WO2014030290A1 (ja) | 2014-02-27 |
EP2887200B1 (en) | 2018-11-28 |
JP6384541B2 (ja) | 2018-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2903554T3 (es) | Aparato electrónico, método de funcionamiento del aparato y programa | |
TWI518439B (zh) | 相機裝置 | |
JP5962403B2 (ja) | 情報処理装置、表示制御方法及びプログラム | |
US10152222B2 (en) | Digital image processing device and associated methodology of performing touch-based image scaling | |
KR101984590B1 (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
JP5487679B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US20170068416A1 (en) | Systems And Methods for Gesture Input | |
JP6940353B2 (ja) | 電子機器 | |
CN103488388A (zh) | 显示控制装置及其控制方法 | |
EP2887648A1 (en) | Method of performing previewing and electronic device for implementing the same | |
KR20170063388A (ko) | 전자기기 및 그 제어 방법 | |
BR112012015405A2 (pt) | sistema e método para entrada de comando multimodo | |
CN113994659B (zh) | 电子设备及其控制方法、程序和存储介质 | |
JP2018036802A (ja) | 電子機器およびその制御方法 | |
CN114071011B (zh) | 显示控制设备、用于控制其的控制方法和记录介质 | |
EP3152646A1 (en) | Method and device for accessing tv service | |
JP2013047968A (ja) | 電子機器、制御方法、プログラム | |
JP2009164757A (ja) | 画像表示装置及び撮像装置 | |
KR101363661B1 (ko) | 엣지 슬라이딩 ui가 적용된 스마트 리모트 컨트롤러 | |
CN106030490B (zh) | 可穿戴装置、电子装置、图像控制装置及显示控制方法 | |
CN111061372B (zh) | 设备控制方法及相关设备 | |
JP6112985B2 (ja) | 表示制御装置、方法及びプログラム並びに記憶媒体 | |
US20230209175A1 (en) | Lens system | |
CN103677579A (zh) | 电子设备和控制方法 | |
JP2019061539A (ja) | 入力補助装置および携帯端末 |