ES2639136T3 - Dispositivo de visualización de la información y sistema de información del mismo - Google Patents

Dispositivo de visualización de la información y sistema de información del mismo Download PDF

Info

Publication number
ES2639136T3
ES2639136T3 ES13167782.5T ES13167782T ES2639136T3 ES 2639136 T3 ES2639136 T3 ES 2639136T3 ES 13167782 T ES13167782 T ES 13167782T ES 2639136 T3 ES2639136 T3 ES 2639136T3
Authority
ES
Spain
Prior art keywords
information
image
unit
field device
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13167782.5T
Other languages
English (en)
Inventor
Yousuke Ishii
Kenji Oishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Application granted granted Critical
Publication of ES2639136T3 publication Critical patent/ES2639136T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un dispositivo de visualización de la información (30, 50, 70) que comprende: una unidad de captura de imágenes (31) configurada para capturar una imagen; una unidad de visualización (32) configurada para visualizar la imagen capturada mediante la unidad de captura de imágenes; una unidad de detección (33, 34) configurada para detectar una posición y una situación del dispositivo de visualización de la información; una unidad de identificación (42) configurada para identificar un dispositivo de campo (10, 10a, 10b) colocado en una dirección de captura de imágenes mediante la unidad de captura de imágenes, utilizando un resultado de detección de la unidad de detección; una unidad de control de la visualización (44) configurada para producir una visualización superpuesta en la unidad de visualización de la imagen capturada mediante la unidad de captura de imágenes, superpuesta con al menos una entre información estática e información dinámica con respecto al dispositivo de campo identificado mediante la unidad de identificación independientemente de si una imagen del dispositivo de campo se incluye en la imagen capturada mediante la unidad de captura de imágenes; una unidad de procesamiento de imágenes (51) configurada para identificar una posición de visualización, dentro de la imagen capturada mediante la unidad de captura de imágenes, de la imagen del dispositivo de campo que se incluye en la imagen capturada mediante la unidad de captura de imágenes; y una unidad de ajuste de posición de la visualización (52) configurada para ajustar la posición de visualización, dentro de la imagen capturada por la unidad de captura de imágenes, de al menos una entre información estática e información dinámica que se visualiza mediante la unidad de control de la visualización según la posición de visualización identificada mediante la unidad de procesamiento de imágenes, en donde cuando se determina que la posición de visualización de la imagen del dispositivo de campo no puede ser identificada mediante la unidad de procesamiento de imágenes, la, al menos una, entre información estática e información dinámica del dispositivo de campo se visualiza en una posición de visualización dentro de la imagen capturada mediante la unidad de captura de imágenes que se corresponde con una posición del dispositivo de campo identificado mediante la unidad de identificación; y cuando se determina que la posición de visualización de la imagen del dispositivo de campo no puede ser identificada mediante la unidad de procesamiento de imágenes, la unidad de ajuste de posición de la visualización ajusta la posición de visualización en la imagen de la, al menos una, entre la información estática y la posición dinámica del dispositivo de campo.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Dispositivo de visualizacion de la informacion y sistema de informacion del mismo Antecedentes de la invencion Campo tecnico de la invencion
La presente invencion se refiere a un dispositivo de visualizacion de la informacion y un sistema de visualizacion de la informacion.
Se reivindica la prioridad de la solicitud de la patente japonesa n° 2012-114454, presentada el 18 de mayo de 2012. Descripcion de la tecnica relacionada
Todas las patentes, solicitudes de patentes, publicaciones de patentes, artfculos cientificos y similares, que en lo sucesivo seran citados o identificados en la presente solicitud, se incorporaran por referencia en su totalidad para describir mas detalladamente el estado de la tecnica a la que pertenece la presente invencion.
De manera convencional, en plantas, fabricas y similares, con el fin de conseguir un alto nivel de funcionamiento automatizado, los sistemas de control distribuido, tambien denominados de aqu en adelante DCS, en los que se implementan dispositivos in situ conocidos como dispositivos de campo, tales como instrumentos de medicion y actuadores, y una unidad de control que controla estos dispositivos estan conectados a traves de una unidad de comunicacion. En los sistemas de control distribuidos convencionales, aunque la comunicacion se realiza principalmente por cable, en los ultimos anos se ha implementado la comunicacion inalambrica de conformidad con los estandares de comunicacion inalambrica industrial tales como IS100.11 y WirelessHART (marca registrada).
En una instalacion en la que se implementa dicho sistema de control distribuido, desde el punto de vista de, por ejemplo, evitar un funcionamiento anormal y mantener la precision en la medicion, los trabajadores realizan un mantenimiento periodico de los dispositivos de campo. El mantenimiento de los dispositivos de campo se realiza a menudo utilizando un dispositivo terminal portatil tal como un PDA (asistente digital personal) que permite una comunicacion de corto alcance, tal como comunicacion en serie por cable, comunicacion mediante infrarrojos y comunicacion inalambrica de baja potencia, utilizando un ordenador en el cual se ha instalado una herramienta de configuracion del dispositivo de campo, que es una herramienta espedfica para configurar y ajustar dispositivos de campo.
Concretamente, al mantener un dispositivo de campo, un trabajador primero va a la lugar de instalacion del dispositivo de campo y conecta el dispositivo terminal portatil con el dispositivo de campo utilizando, por ejemplo, un cable. A continuacion, el trabajador opera el dispositivo terminal portatil para obtener informacion del dispositivo, es decir, los parametros del dispositivo de campo, y para mostrar la informacion del dispositivo obtenida. Luego, con referencia a la informacion del dispositivo visualizada en el dispositivo terminal portatil, el trabajador, si es necesario, opera el dispositivo terminal portatil para cambiar la informacion del dispositivo y escribir instrucciones de configuracion de la informacion del dispositivo al dispositivo de campo. De esta manera se realizan diversas configuraciones y ajustes en el dispositivo de campo.
La publicacion de la patente japonesa no examinada, primera publicacion n° 2005-115500 describe un dispositivo que, aunque no se utiliza en el mantenimiento de un dispositivo de campo, puede medir la posicion y orientacion actuales de un usuario y puede presentar informacion asociada con la posicion y la orientacion. Concretamente, la publicacion de la patente japonesa examinada, primera publicacion n° 2005-115500 describe un dispositivo que, a partir de una imagen de un indicador de informacion de posicion capturado por una camara, distingue la posicion de la camara, es decir, la distancia entre el indicador y la camara, y el angulo de la camara con respecto al indicador, lee la descripcion del indicador y obtiene informacion con respecto a la posicion del indicador, y superpone y visualiza la informacion obtenida en una imagen de la camara que se ajusta para coincidir con la posicion y el angulo de la camara.
En el mantenimiento de un dispositivo de campo, como se ha descrito anteriormente, es basicamente necesario tener una situacion en la que un trabajador vaya a la ubicacion de la instalacion del dispositivo de campo y en el que sea posible una comunicacion fiable entre el dispositivo terminal portatil del trabajador y el dispositivo de campo. Por esta razon, a medida que el tamano de la planta, o similar, es mayor, aumenta el intervalo sobre el cual el trabajador debe desplazarse, lo que supone una carga adicional para el trabajador, que necesita un largo tiempo de desplazamiento, empeorando de este modo asf la eficacia del trabajo.
Desde el punto de vista de la seguridad, en un sistema de control distribuido, es deseable que todos los dispositivos de campo sean gestionados de forma integrada por la unidad de control. Sin embargo, cuando se mantienen dispositivos de campo, como se ha descrito anteriormente, debido a que un trabajador puede cambiar la informacion del dispositivo, a menos que los trabajadores esten suficientemente formados, existe la posibilidad de una reduccion de la seguridad, por eliminacion, robo, perdida, o similares, del dispositivo terminal portatil.
5
10
15
20
25
30
35
40
45
50
En un dispositivo de campo, la ubicacion de la instalacion puede cambiar segun la situacion del entorno. Por ejemplo, puede haber una disminucion en la calidad de comunicacion de un dispositivo de campo que permite una comunicacion inalambrica (en lo sucesivo, un dispositivo de campo inalambrico) debido a un cambio en las condiciones de radio del entorno. En tal caso, debido a que un trabajador debe decidir la ubicacion en la que el dispositivo de campo inalambrico debe instalarse mediante un proceso intuitivo de prueba y error, la eficacia del trabajo es deficiente y no es posible hacer un juicio detallado del grado de mejora en la calidad de la comunicacion, por lo que es imposible establecer la fiabilidad.
El documento JP 2010 238096 A describe un dispositivo terminal, un sistema de realidad aumentada y un procedimiento de visualizacion en la pantalla del terminal. En este dispositivo terminal, una pieza de control detecta una cantidad de desplazamiento del desplazamiento realizado despues de determinar una posicion de visualizacion de la informacion de realidad aumentada en funcion de un angulo y una situacion de una pieza de la camara mediante un sensor de direccion. Cuando la cantidad de desplazamiento excede un valor umbral, el dispositivo terminal vuelve a determinar la posicion de visualizacion y vuelve a realizar la recomposicion.
Compendio
La presente invencion proporciona un dispositivo de visualizacion de la informacion y un sistema de visualizacion de la informacion que permite reducir la carga de un trabajador y mejora en la eficacia del trabajo.
Segun ello, se proporciona un dispositivo de visualizacion de la informacion segun se establece en la reivindicacion independiente 1, un sistema de visualizacion de la informacion segun se establece en la reivindicacion independiente 5, un procedimiento de visualizacion de la informacion segun se establece en la reivindicacion independiente 7 y un producto de programa informatico segun se establece en la reivindicacion independiente 12. Las reivindicaciones dependientes definen desarrollos favorables.
El producto de programa informatico puede incluir ademas: instrucciones para realizar el procesamiento de imagenes con respecto a la imagen que se ha capturado e identificar una posicion de un grafico del dispositivo de campo dentro de la imagen; e instrucciones para ajustar una posicion de visualizacion de al menos una entre informacion estatica e informacion dinamica con respecto al dispositivo de campo que se ha identificado, de manera que los graficos del dispositivo de campo incluidos en la imagen se muestran en correspondencia con al menos una entre la informacion estatica y la informacion dinamica relativa al dispositivo de campo que se ha identificado.
El producto de programa informatico puede incluir ademas: instrucciones para almacenar, ademas de la informacion de posicion del dispositivo de campo, una imagen de la plantilla que indica los graficos del dispositivo de campo; e instrucciones para identificar una posicion del dispositivo de campo incluido en la imagen, utilizando la imagen de la plantilla que se ha almacenado.
Breve descripcion de los dibujos
Las caractensticas y ventajas anteriores de la presente invencion seran mas evidentes a partir de la siguiente descripcion de ciertas realizaciones preferidas tomadas junto con los dibujos adjuntos, en los que:
la Fig. 1 es un diagrama que ilustra la constitucion general de un sistema de visualizacion de la informacion segun una primera realizacion preferida de la presente invencion;
la Fig. 2 es un diagrama de bloques que ilustra la constitucion de la parte principal de un dispositivo servidor de un dispositivo de visualizacion de la informacion segun una primera realizacion preferida de la presente invencion;
la Fig. 3 es un diagrama de flujo que ilustra el funcionamiento del dispositivo de visualizacion de la informacion segun la primera realizacion preferida de la presente invencion;
la Fig. 4A y la Fig. 4B son dibujos que ilustran un ejemplo de una pantalla de instrucciones visualizada segun la primera realizacion preferida de la presente invencion;
la Fig. 5 es un diagrama que ilustra la constitucion general de un sistema de visualizacion de la informacion segun una segunda realizacion preferida de la presente invencion;
la Fig. 6 es un diagrama que ilustra la constitucion general de un sistema de visualizacion de la informacion segun una segunda realizacion preferida de la presente invencion;
la Fig. 7 es un diagrama de bloques que ilustra la constitucion de la parte principal del dispositivo servidor y del dispositivo de visualizacion de la informacion segun la segunda realizacion preferida de la presente invencion;
la Fig. 8 es un diagrama de flujo que ilustra el funcionamiento del dispositivo de visualizacion de la informacion segun la segunda realizacion preferida de la presente invencion;
la Fig. 9 es un diagrama que ilustra las partes principales de la constitucion de un sistema de visualizacion de la informacion segun la tercera realizacion preferida de la presente invencion;
5
10
15
20
25
30
35
40
45
50
55
la Fig. 10 es un diagrama de bloques que ilustra la constitucion del dispositivo servidor de un dispositivo de visualizacion de la informacion segun una tercera realizacion preferida de la presente invencion; y
la Fig.11 es un diagrama de flujo que ilustra el funcionamiento del dispositivo de visualizacion de la informacion segun la tercera realizacion preferida de la presente invencion.
Descripcion detallada de las realizaciones preferidas
La presente invencion se describira en esta invencion con referencia a las realizaciones preferidas ilustrativas. Los expertos en la tecnica reconoceran que pueden realizarse muchas realizaciones preferidas alternativas utilizando la ensenanza de la presente invencion y que la presente invencion no se limita a las realizaciones preferidas ilustradas en la presente invencion con fines explicativos.
Primera realizacion preferida
La Fig. 1 es un diagrama que ilustra la constitucion general de un sistema de visualizacion de la informacion segun una primera realizacion preferida de la presente invencion; Como se muestra en la Fig. 1, un sistema de visualizacion de la informacion 1 de la primera realizacion preferida tiene una pluralidad de dispositivos de campo 10, un dispositivo servidor 20 y un dispositivo de visualizacion de la informacion 30. El dispositivo de visualizacion de la informacion 30 puede visualizar informacion estatica con respecto a los dispositivos de campo 10 superpuestos sobre imagenes de los dispositivos de campo 10. El dispositivo de visualizacion de la informacion 30 tambien puede utilizarse para configurar o gestionar los dispositivos de campo 10. En la primera realizacion preferida, la informacion estatica senalada mas arriba se toma como informacion de etiqueta que esta asignada de manera unica a cada uno de los dispositivos de campo 10. La informacion de etiqueta tambien se conoce como informacion de identificacion.
En este caso, los dispositivos de campo 10 y el dispositivo servidor 20 estan conectados a traves de la red N1 y el dispositivo servidor 20 y el dispositivo de visualizacion de la informacion 30 estan conectados a traves de la red N2. La red N1 es una red de comunicacion inalambrica que permite una comunicacion inalambrica conforme a un estandar de comunicacion inalambrica industrial, tal como ISA 100.11a o WirelessHart (marca registrada), una red de comunicacion por cable tal como un bus de campo o una red que es una combinacion de los mismos. La red N2 es una red de comunicacion inalambrica que permite una comunicacion inalambrica conforme a un estandar de comunicacion inalambrica, tal como Wi-Fi (marca comercial), 3G/LTE (marca registrada), o similares.
Un dispositivo de campo 10 es, por ejemplo, un dispositivo sensor tal como un medidor de la cantidad de flujo o un sensor de temperatura, un dispositivo de valvulas tal como una valvula de control de la cantidad de flujo o una valvula de abertura/cierre, un dispositivo actuador tal como un ventilador o un motor u otro dispositivo instalado in situ en una planta. Estos dispositivos de campo 10 se comunican de forma inalambrica, por ejemplo, de conformidad con la ISA100.11 o WirelessHART (marca registrada) descritas anteriormente. Los cilindros marcados con los sfmbolos P1 a P4 de la Fig. 1 representan depositos y tubenas, o similares, en la planta en la que estan instalados los dispositivos de campo 10.
El dispositivo servidor 20 realiza una gestion que incluye la supervision y el control de los dispositivos de campo 10 a traves de la red N1. El aparato servidor 20, en respuesta a una peticion del dispositivo de visualizacion de la informacion 30, proporciona informacion de gestion de los dispositivos de campo 10 al dispositivo de visualizacion de la informacion 30, a traves de la red N2. El aparato servidor 20, en respuesta a una instruccion del dispositivo de visualizacion de la informacion 30 a traves de la red N2, realiza la configuracion y gestion de los dispositivos de campo 10.
El dispositivo de visualizacion de la informacion 30 es accionado por el trabajador W y muestra en un panel tactil 32 una imagen superpuesta de la imagen G1 capturada por una camara 31 y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10, que es informacion incluida en la informacion de gestion proporcionada desde el dispositivo servidor 20 a traves de la red N2. Concretamente, en el ejemplo que se muestra en la Fig. 1, la imagen G1 visualizada en el panel tactil 32 es una imagen dentro del campo de vision F de la camara 31 que captura una imagen de los dispositivos de campo 10 y las instalaciones P1 a P4. La imagen G2 que se muestra en el panel tactil 32 es una imagen con los caracteres DEV1 a DEV9 en globos. El dispositivo de visualizacion de la informacion 30, segun la operacion del trabajador W, transmite instrucciones para la configuracion y gestion del dispositivo de campo 10 al dispositivo servidor 20, a traves de la red N2. Para que el trabajador W pueda utilizar el dispositivo de visualizacion de la informacion 30, puede ser necesario introducir un ID y una contrasena.
La Fig. 2 es un diagrama de bloques que ilustra la constitucion de la parte principal de un dispositivo servidor de un dispositivo de visualizacion de la informacion segun una primera realizacion preferida de la presente invencion. En la Fig. 2, con el fin de simplificar la ilustracion, se ha omitido la ilustracion de los dispositivos de campo 10, la red N1 y las instalaciones P1 a P4 en la planta. Con respecto al dispositivo servidor 20 y al dispositivo de visualizacion de la informacion 30, solo se ilustran los elementos constitutivos necesarios para la descripcion.
Como se muestra en la Fig. 2, el dispositivo servidor 20 tiene una unidad de gestion 21, una base de datos de dispositivos de campo 22 y una unidad de comunicacion 23. La unidad de gestion 21, a traves de la red N1, gestiona los dispositivos de campo 10 y almacena la informacion de gestion en la base de datos de dispositivos de campo 22.
5
10
15
20
25
30
35
40
45
50
55
La unidad de gestion 21, en base a la informacion transmitida desde el dispositivo de visualizacion de la informacion
30, cuyos detalles se describiran mas adelante, proporciona al dispositivo de visualizacion de la informacion 30 informacion de gestion de los dispositivos de campo 10 colocados dentro del campo de vision F de la camara 31 del dispositivo de visualizacion de la informacion 30.
La base de datos de dispositivos de campo 22 almacena la informacion de gestion de los dispositivos de campo 10. Concretamente, la base de datos de dispositivos de campo 22 almacena la informacion de posicion D1 que indica las posiciones de los dispositivos de campo 10, la informacion de etiqueta D2, y la informacion de direccion (que es una URL, localizador de recursos uniforme) D3 para obtener una pantalla de instrucciones para realizar instrucciones de configuracion y gestion de los dispositivos de campo 10. La unidad de comunicacion 23 esta conectada a, y se comunica a traves de, la red N2.
El dispositivo de visualizacion de la informacion 30 tiene una camara 31, un panel tactil 32, una unidad de medicion de la posicion 33, una unidad de deteccion de la situacion 34, una unidad de comunicacion inalambrica 35, una memoria 36 y una unidad de control 37. La camara 31 se denomina tambien unidad de captura de imagenes. El panel tactil 32 tambien se denomina unidad de visualizacion. La unidad de medicion de la posicion 33 y la unidad de deteccion de la situacion 34 tambien se denominan colectivamente unidad de deteccion. La memoria 36 tambien se denomina unidad de almacenamiento. La camara 31 tiene un elemento de imagen en estado solido tal como un CCD (dispositivo de acoplamiento de carga), un CMOS (semiconductor complementario de oxido metalico) o similar, y puede capturar imagenes fijas y en movimiento. El panel tactil 32 es un dispositivo de visualizacion de funcionamiento que es la combinacion de un dispositivo de visualizacion tal como un dispositivo de visualizacion de cristal lfquido o un dispositivo de visualizacion de electroluminiscencia (EL) organica y un dispositivo de entrada por posicion tal como una almohadilla tactil.
La unidad de medicion de la posicion 33 mide la posicion del dispositivo de visualizacion de la informacion 30. Concretamente, la unidad de medicion de la posicion 33 recibe una senal de radio desde un satelite utilizado en un OPS (sistema de posicionamiento global) y procesa la senal recibida para medir la posicion del dispositivo de visualizacion de la informacion 30. La unidad de deteccion de la situacion 34 tiene un sensor giroscopico, un sensor geomagnetico o una brujula electronica y similares, que detecta la situacion y orientacion del dispositivo de visualizacion de la informacion 30. La direccion de captura de imagenes de la camara 31 se puede identificarse a partir de los resultados de deteccion de la unidad de deteccion de la situacion 34.
La unidad de comunicacion inalambrica 35 puede comunicarse de forma inalambrica, de conformidad con un estandar de comunicaciones inalambricas, tal como el Wi-Fi previamente senalado (marca registrada), WiMAX (marca registrada) o 3G/LTE (marca registrada) o similares, y se comunica a traves de la red N2. La memoria 36 se implementa mediante un dispositivo de almacenamiento tal como una memoria semiconductora o por un dispositivo de almacenamiento, tal como un disco duro, y almacena diversa informacion utilizada en la unidad de control 37.
La unidad de control 37 genera la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10 y, tal como se muestra en la Fig. 1, muestra en el panel tactil 32 una imagen que es la imagen G2 colocada sobre la imagen G1 capturada por la camara 31. La unidad de control 37, en respuesta a una operacion del panel tactil 32 por el trabajador W, muestra en el panel tactil 32 una pantalla de instrucciones con el fin de ajustar y manejar los dispositivos de campo 10. La unidad de control 37 transmite al dispositivo servidor 20 segun las operaciones con respecto a la pantalla de instrucciones a traves de la red N2.
La unidad de control 37 tiene una unidad de procesamiento de imagenes 41, una unidad de identificacion de dispositivos de campo 42, una unidad de generacion de imagenes superpuestas 43, una unidad de control de la visualizacion 44 y una unidad de gestion remota 45. La unidad de identificacion de dispositivos de campo 42 tambien se denomina unidad de identificacion. La unidad de procesamiento de imagenes 41 realiza el procesamiento de imagenes tal como procesamiento de eliminacion del ruido y procesamiento de ajuste del brillo con respecto a la imagen capturada por la camara 31. La unidad de identificacion de dispositivos de campo 42 utiliza los resultados de medicion de la unidad de medicion de la posicion 33 y los resultados de deteccion de la unidad de deteccion de la situacion 34 para identificar los dispositivos de campo 10 colocados en la direccion de captura de imagenes de la camara 31.
Concretamente, la unidad de identificacion de dispositivos de campo 42 transmite al dispositivo servidor 20 informacion que indica la posicion del dispositivo de visualizacion de la informacion 30 medida por la unidad de medicion de la posicion 33, informacion que indica la situacion del dispositivo de visualizacion de la informacion 30 detectado por la unidad de deteccion de la situacion 34 y la informacion que indica el angulo de vision de la camara
31. Basandose en la informacion de dispositivo proporcionada desde el dispositivo servidor 20, se identifican los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31.
La unidad de generacion de imagenes superpuestas 43 genera una imagen que se va a colocar sobre la imagen G1 capturada por la camara 31. Concretamente, la unidad de generacion de imagenes superpuestas 43 genera una imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10 identificados por la unidad de identificacion de dispositivos de campo 42. Cuando el trabajador W realiza una operacion para identificar un dispositivo de campo 10 capturado por la camara 31, la unidad de imagenes superpuestas 43 genera una imagen de
5
10
15
20
25
30
35
40
45
50
55
una pantalla de instrucciones para realizar las instrucciones de configuracion y gestion en el dispositivo de campo identificado 10. La imagen de la pantalla de instrucciones se genera utilizando la informacion obtenida por la unidad de generacion de imagenes superpuestas 43 que accede a las direcciones identificadas por la informacion de direccion incluida en la informacion de gestion del dispositivo de campo 10 identificada por el trabajador W.
Ademas de realizar la visualizacion de control del panel tactil 32, la unidad de control de la visualizacion 44 realiza el procesamiento de entrada a traves del panel tactil 32. Concretamente, la unidad de visualizacion del control 44 superpone la imagen que es procesada por la unidad de procesamiento de imagenes 41 y la imagen generada por la unidad de generacion de imagenes superpuestas 43 y visualiza la imagen en el panel tactil 32. En respuesta a una operacion concreta hecha por el trabajador W con respecto al panel tactil, emite las instrucciones del trabajador W a la unidad de generacion de imagenes superpuestas 43 o a la unidad de gestion remota 45. La unidad de gestion remota 45 transmite al dispositivo servidor 20, a traves de la red N2, instrucciones segun las operaciones realizadas por el trabajador W en la pantalla de instrucciones.
A continuacion, se describira el funcionamiento del sistema de visualizacion de la informacion y el dispositivo de visualizacion de la informacion constituido como se ha indicado anteriormente. La Fig. 3 es un diagrama de flujo que ilustra el funcionamiento del dispositivo de visualizacion de la informacion segun la primera realizacion preferida de la presente invencion. Un modo de visualizacion normal, que visualiza la imagen capturada por la camara 31 tal como esta en el panel tactil 32, y un modo de visualizacion superpuesta, que muestra en el panel tactil 32 la imagen capturada por la camara 31 superpuesta con una imagen que muestra la informacion de etiqueta de los dispositivos de campo 10 y similares, se proporcionan en el dispositivo de visualizacion de la informacion 30 de la primera realizacion preferida. El diagrama de flujo que se muestra en la Fig. 3 comienza desde el trabajador W que opera el panel tactil 32 para configurar el modo de funcionamiento del dispositivo de visualizacion de la informacion 30 al modo de visualizacion de la imagen superpuesta, o similar.
En la etapa S11, cuando el modo de funcionamiento del dispositivo de visualizacion de la informacion 30 esta conFig.do para el modo de visualizacion superpuesta, en primer lugar la camara 31 captura una imagen. En este caso, debido a que el dispositivo de visualizacion de la informacion 30 es accionado por un trabajador W que trabaja presencialmente en una planta en la que estan instalados los dispositivos de campo 10, la camara 31 captura una imagen in situ. La imagen capturada por la camara 31 es procesada y enviada a la unidad de control de la visualizacion 44 mediante la unidad de procesamiento de imagenes 41.
A continuacion, en la etapa S12, la unidad de medicion de la posicion 33 mide la posicion del dispositivo de visualizacion de la informacion 30 y la unidad de deteccion de la situacion 34 detecta la situacion del dispositivo de visualizacion de la informacion 30. Los resultados de medicion de la unidad de medicion de la posicion 33 y los resultados de deteccion de la unidad de deteccion de la situacion 34 se introducen en la unidad de identificacion de dispositivos de campo 42 de la unidad de control 37 y se transmiten, a traves de la red N2, junto con informacion que indica el angulo de vision de la camara 31, desde la unidad de comunicacion inalambrica 35 al dispositivo servidor 20.
Al recibir los resultados de medicion, y similares, transmitidos desde el dispositivo de visualizacion de la informacion 30, la unidad de gestion 21 del dispositivo servidor 20 identifica los dispositivos de campo 10 colocados dentro del campo de vision F de la camara 31 del dispositivo de visualizacion de la informacion 30. A continuacion, se lee la informacion de gestion de los dispositivos de campo identificados 10 desde la base de datos de dispositivos de campo 22, se envfa a la unidad de comunicacion 23 y se transmite al dispositivo de visualizacion de la informacion
30. La informacion de gestion incluye la informacion de posicion D1, la informacion de etiqueta D2 y la informacion de direccion D3.
La informacion de gestion del dispositivo de campo 10 transmitida desde el dispositivo servidor 20 se recibe a traves de la red N2 por la unidad de comunicacion inalambrica 35 del dispositivo de visualizacion de la informacion 30 y se introduce en la unidad de identificacion de dispositivos de campo 42. Haciendo esto, debido a que la informacion de gestion de los dispositivos de campo 10 colocados dentro del campo de vision F de la camara 31 se obtiene en el dispositivo de visualizacion de la informacion 30, en la etapa S13 se identifican los dispositivos de campo 10 colocados en la direccion de captura de imagenes de la camara 31.
Cuando se identifican los dispositivos de campo 10 colocados en la direccion de captura de imagenes de la camara
31, la unidad de generacion de imagenes superpuestas 43 genera una imagen que indica la informacion de etiqueta de los dispositivos de campo identificados 10. La imagen que indica la informacion de etiqueta generada por la unidad de generacion de imagenes superpuestas 43 se envfa a la unidad de control de la visualizacion 44 y se muestra en el panel tactil 32 colocada sobre una imagen que es procesada mediante la unidad de procesamiento de imagenes 41. Por consiguiente, tal como se muestra en la Fig. 1, en la etapa S14, la imagen G1 capturada por la camara 31 se visualiza en el panel tactil 32, superpuesta con la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10.
Cuando termina el procesamiento senalado mas arriba, en la etapa S15, la unidad de control de la visualizacion 44 decide si el trabajador W ha realizado, o no, una operacion de seleccion para seleccionar un dispositivo de campo 10 que se muestra en el panel tactil 32. Si la unidad de control de la visualizacion 44 decide que no se ha realizado una
5
10
15
20
25
30
35
40
45
50
55
60
operacion de seleccion, es dedr, si el resultado de la decision en la etapa S15 es NO, se realiza el procesamiento de la etapa S11 a la etapa S14. Durante el tiempo en que la decision en la etapa S15 es NO, se repite el procesamiento de las etapas S11 a S14. Como resultado, si el trabajador W cambia la orientacion del dispositivo de visualizacion de la informacion 30 y la imagen G2 que se visualiza en el panel tactil 32, tambien cambia segun el cambio de la imagen capturada por la camara 31, es decir, el cambio de la imagen G1 que se visualiza en el panel tactil 32.
En cambio, si la unidad de control de la visualizacion 44 decide que se ha realizado la operacion de seleccion senalada mas arriba, es decir, si el resultado de la decision en la etapa S15 es Sf, la informacion que indica el dispositivo de campo seleccionado 10 es emitida desde la unidad de control de la visualizacion 44 a la unidad de generacion de imagenes superpuestas 43. Cuando esto se produce, la unidad de generacion de imagenes superpuestas 43 accede a la direccion identificada por la informacion de direccion D3 incluida en la informacion de gestion del dispositivo de campo seleccionado 10 y genera una imagen de una pantalla de instrucciones para realizar las instrucciones de configuracion y gestion de ese dispositivo de campo 10. En la etapa S16, la imagen de pantalla de instrucciones generada por la unidad de generacion de imagenes superpuestas 43 se envfa a la unidad de control de la visualizacion 44 y se muestra en el panel tactil 32.
Las Figs. 4A y la Fig. 4B son dibujos que ilustran un ejemplo de una pantalla de instrucciones que se visualiza segun la primera realizacion preferida de la presente invencion. La pantalla de instrucciones que se muestra en la Fig. 4A es una pantalla de instrucciones con respecto a un dispositivo de campo que mide una presion, siendo los elementos de configuracion que se proporcionan un intervalo de actualizacion de datos, unidades de datos, tipo de alarma, umbral de alarma y similares. Los cuadros de entrada B1, B2, B3, B4, y asf sucesivamente, se proporcionan en correspondencia con cada uno de los elementos de configuracion. El boton de entrada B1 se corresponde con el intervalo de actualizacion de datos, el cuadro de entrada B2 se corresponde con las unidades de datos, el cuadro de entrada B3 se corresponde con el tipo de alarma y el boton de entrada B4 se corresponde con el umbral de alarma. Los valores que se visualizan en cada una de los cuadros de entrada B1 a B4 son los valores actualmente establecidos y la configuracion del dispositivo de campo 10 puede cambiarse cambiando estos valores. Tal como que se muestra en la Fig. 4B, puede visualizarse una pantalla de instrucciones que muestra las variaciones temporales de los valores medidos anteriormente, que en este caso son valores de presion medidos anteriormente.
En la etapa S17, despues de que se visualice la pantalla de instrucciones en el panel tactil 32, se realiza el procesamiento segun una instruccion realizada con respecto a la pantalla de instrucciones mediante la unidad de gestion remota 45. Por ejemplo, si se ha cambiado un valor de los cuadros de entrada B1 a B4 que se muestran en la Fig. 4, la unidad de gestion remota 45 realiza el procesamiento para solicitar al dispositivo servidor 20 que cambie el valor de configuracion del dispositivo de campo 10. A continuacion, en la etapa S18, se toma una decision en la unidad de control de la visualizacion 44 en cuanto a si el trabajador W ha realizado o no una instruccion para finalizar el modo de visualizacion superpuesta. Si la decision es que no se ha realizado una instruccion de finalizacion, es decir, que el resultado de la decision en la etapa S18 es NO, se repite el procesamiento desde S11 y si se ha realizado la instruccion de finalizacion, es decir, si el resultado de la decision en la etapa S18 es Sf, finaliza la serie de procesamientos que se muestra en la Fig. 3.
Como se ha indicado anteriormente, en la primera realizacion preferida, la posicion del dispositivo de visualizacion de la informacion 30 se mide mediante la unidad de medicion de la posicion 33 y la situacion de la misma se detecta mediante la unidad de deteccion de la situacion 34, los resultados de medicion y los resultados de deteccion utilizados para identificar los dispositivos de campo 10 colocados en la direccion de captura de imagenes de la camara 31 y la informacion de etiqueta de los dispositivos de campo identificados 10 se visualizan en el panel tactil 32 superpuestos sobre la imagen capturada por la camara 31. Si se realiza una operacion para seleccionar un dispositivo de campo 10 visualizado en el panel tactil 32, en el panel tactil 32 se visualiza una pantalla de instrucciones con el fin de realizar las instrucciones de configuracion y gestion del dispositivo de campo 10 seleccionado, habilitando la configuracion y gestion en respuesta a las instrucciones.
Haciendo esto, un dispositivo de campo 10 colocado en la direccion de captura de imagenes de la camara 31 puede ser operado remotamente y el trabajador W puede realizar el mantenimiento del dispositivo de campo 10 sin tener que ir al lugar de instalacion del dispositivo de campo 10, facilitando de este modo una reduccion de la carga sobre el trabajador W y una mejora en la eficacia del trabajo. En este caso, incluso en un contexto en el que un dispositivo de campo 10 esta oculto de la vista del trabajador W, si la camara 31 se envfa al lugar de instalacion del dispositivo de campo 10, es posible visualizar la informacion de etiqueta del dispositivo de campo 10, eliminando de este modo el problema de buscar un dispositivo de campo 10 oculto detras de algo y mejorando la eficacia del trabajo.
Como se ha descrito anteriormente, el dispositivo de visualizacion de la informacion 30 se convierte en utilizable despues de la autenticacion introduciendo un ID y una contrasena. Por esta razon, debido a que no es necesario instalar una clave de seguridad especial en el dispositivo de visualizacion de la informacion 30, incluso si el dispositivo de visualizacion de la informacion 30 se elimina, se roba, se pierde, o por el estilo, no se pueden producir violaciones de la clave de seguridad, lo que supone una mejora de la seguridad.
En la primera realizacion preferida anteriormente descrita, la descripcion ha sido para un ejemplo en el que la unidad de identificacion de dispositivos de campo 42, en base a la informacion de gestion de dispositivo de campo 10 proporcionada desde el dispositivo servidor 20, identifica los dispositivos de campo 10 colocados en la direccion de
5
10
15
20
25
30
35
40
45
50
55
captura de imagenes de la camara 31. Sin embargo, la informacion de gestion almacenada en la base de datos de dispositivos de campo 22 del dispositivo servidor 20 se puede descargar y almacenar previamente en la memoria 36 del dispositivo de visualizacion de la informacion 30, con la informacion de gestion almacenada en la memoria 36 que se utiliza para identificar dispositivos de campo 10 colocados dentro del campo de vision F de la camara 31, es decir, en la direccion de captura de imagenes por la camara 31.
Segunda realizacion preferida
La Fig. 5 y la Fig. 6 son diagramas que ilustran la constitucion general de un sistema de visualizacion de la informacion segun una segunda realizacion preferida de la presente invencion. En la Fig. 5 y en la Fig. 6, los elementos constituyentes que son los mismos que en la constitucion que se muestra en Fig. 1 tienen asignados los mismos sfmbolos de referencia. Como se muestra en la Fig. 5 y la Fig. 6, el sistema de visualizacion de la informacion 2 de la segunda realizacion preferida, en lugar de los dispositivos de campo 10 que se muestran en la Fig. 1, tiene los dispositivos de campo 10a y 10b y, en lugar del dispositivo de visualizacion de la informacion 30, tiene un dispositivo de visualizacion de la informacion 50. El sistema de visualizacion de la informacion 2 de la segunda realizacion preferida que tiene esta constitucion, ademas de ser capaz de visualizar, en el dispositivo de visualizacion de la informacion 50, la informacion de etiqueta con respecto a los dispositivos de campo 10a y 10b, con mayor precision que en la primera realizacion preferida, superpuesta sobre las imagenes de los dispositivos de campo 10a y 10b, puede realizar la configuracion y gestion de los dispositivos de campo 10a y 10b utilizando el dispositivo de visualizacion de la informacion 50.
Debido a que existe cierto grado de error en los resultados de medicion de la unidad de medicion de la posicion 33 y los resultados de deteccion de la unidad de deteccion de la situacion 34, en la primera realizacion preferida descrita anteriormente, podna haber desplazamiento entre las posiciones de visualizacion de los dispositivos de campo 10 y las posiciones de visualizacion de informacion de etiqueta en el panel tactil 32. Si se produce tal desplazamiento de posicion de la visualizacion, existe la posibilidad de que se pueda realizar una configuracion con respecto a un dispositivo de campo 10 no intencionado por el trabajador W. El sistema de visualizacion de la informacion 2 de la segunda realizacion preferida, visualizando la informacion de etiqueta relativa a los dispositivos de campo 10a y 10b colocada sobre las imagenes de los dispositivos de campo 10a y 10b con mas precision que la primera realizacion preferida en el dispositivo de visualizacion de la informacion 50, impide una configuracion, y similares, contraria a la intencion del trabajador W.
Aunque los dispositivos de campo 10a y 10b son similares a los dispositivos de campo 10 que se muestran en la Fig. 1, son dispositivos de campo que tienen aspectos exteriores diferentes entre sf. Por ejemplo, a diferencia del dispositivo de campo 10a, que es un dispositivo de campo provisto de una ventana de visualizacion circular, el dispositivo de campo 10b es un dispositivo de campo provisto de una ventana de visualizacion rectangular. Aunque, para simplificar esta descripcion, la descripcion es para el ejemplo de dos dispositivos de campo, 10a y 10b, que tienen aspectos exteriores diferentes, pueden proporcionarse tres o mas dispositivos de campo que tienen aspectos exteriores diferentes. El edificio al cual se aplica el sfmbolo de referencia P0 en la Fig. 5 representa el edificio en el que se alojan las instalaciones P1 a P4 de la Fig. 6.
El trabajador W opera el dispositivo de visualizacion de la informacion 50, parecido al dispositivo de visualizacion de la informacion 30 que se muestra en la Fig. 1. El dispositivo de visualizacion de la informacion 50 visualiza en el panel tactil 32 una imagen superpuesta de la imagen G1 capturada por la camara 31 y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10a y 10b. Sin embargo, si las imagenes de los dispositivos de campo 10a y 10b estan incluidas dentro de la imagen G1 capturada por la camara 31, el dispositivo de visualizacion de la informacion 50 ajusta la posicion de visualizacion de la informacion de etiqueta de manera que haya correspondencia en el visualizador del panel tactil 32 entre las imagenes de los dispositivos de campo 10a y 10b y la informacion de etiqueta de los dispositivos de campo 10a y 10b.
Como se muestra en la Fig. 5, en el caso como cuando el trabajador W captura una imagen del aspecto exterior del edificio P0, si la captura de imagenes distante se realiza a cierta distancia de los lugares de instalacion de los dispositivos de campo 10a y 10b, las imagenes de los dispositivos de campo 10a y 10b no se incluyen en la imagen G1 capturada por la camara 31. En este caso, el dispositivo de visualizacion de la informacion 50, siguiendo el mismo procedimiento que en la primera realizacion preferida, realiza una visualizacion superpuesta en el panel tactil 32 de la imagen G1 capturada por la camara 31 y la imagen G2 que muestra la informacion de etiqueta de los dispositivos de campo 10a y 10b.
En cambio, como se muestra en la Fig. 6, en el caso que el trabajador W captura imagenes de las instalaciones P1 a P4 dentro del edificio P0, si la captura de imagenes proximas se realiza en una posicion proxima a los lugares de instalacion de los dispositivos de campo 10a y 10b, las imagenes de los dispositivos de campo 10a y 10b se incluyen dentro de la imagen G1 capturada por la camara 31. En este caso, el dispositivo de visualizacion de la informacion 50 ajusta la posicion de visualizacion de la informacion de etiqueta de modo que las imagenes de los dispositivos de campo 10a y 10b incluidas en la imagen G1 capturada por la camara 31 y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10a y 10b se visualizan en el panel tactil 32 con correspondencia entre ellos.
La Fig. 7 es un diagrama de bloques que ilustra la constitucion de la parte principal del dispositivo servidor y el
5
10
15
20
25
30
35
40
45
50
55
60
dispositivo de visualizacion de la informacion segun la segunda realizacion preferida de la presente invencion. En la Fig. 7, los elementos constituyentes que son los mismos que en el diagrama de bloques que se muestra en la Fig. 2, tienen asignados los mismos sfmbolos de referencia. Para simplificar esta ilustracion, los dispositivos de campo 10a y 10b que se muestran en la Fig. 5 y la Fig. 6, no se ilustran la red N1 y el edificio P0 y las instalaciones P1 a P4. Con respecto al dispositivo servidor 20 y al dispositivo de visualizacion de la informacion 50, solo se ilustran los elementos constituyentes necesarios para la descripcion.
Como se muestra en la Fig. 7, el dispositivo de visualizacion de la informacion 50 tiene la camara 31, el panel tactil 32, la unidad de medicion de la posicion 33, la unidad de deteccion de la situacion 34, la unidad de comunicacion inalambrica 35, la memoria 36 y la unidad de control 37. Con respecto a estos puntos, el dispositivo de visualizacion de la informacion 50 tiene la misma constitucion que el dispositivo de visualizacion de la informacion 30 que se muestra en la Fig. 2. Sin embargo, hay diferencia con respecto al dispositivo de visualizacion de la informacion 30 que se muestra en la Fig. 2, en que las imagenes de la plantilla TP que indican las imagenes de los dispositivos de campo 10a y 10b se almacenan en la memoria 36, que, en la unidad de control 37, se proporciona una unidad de procesamiento de imagenes 51 en lugar de la unidad de procesamiento de imagenes 41, y que la unidad de ajuste de posicion de la visualizacion 52 se proporciona de nuevo. La unidad de ajuste de posicion de la visualizacion 52 se denomina tambien unidad de ajuste.
Las imagenes de la plantilla TP almacenadas en la memoria 36 son imagenes de los dispositivos de campo 10a y 10b. La unidad de procesamiento de imagenes 51 realiza un procesamiento de imagenes que es parecido al procesamiento de imagenes realizado mediante la unidad de procesamiento de imagenes 41 que se muestra en la Fig. 2. La unidad de procesamiento de imagenes 51 utiliza las imagenes de la plantilla TP almacenadas en la memoria 36 para realizar el procesamiento de coincidencia de plantillas, y similares, con respecto a las imagenes capturadas por la camara 31. Mediante este procesamiento de imagenes, la unidad de procesamiento de imagenes 51 identifica las posiciones de los dispositivos de campo 10a y 10b en la imagen capturada por la camara 31.
La unidad de ajuste de posicion de la visualizacion 52, segun las posiciones de las imagenes de los dispositivos de campo 10a y 10b identificadas por el procesamiento de imagenes realizado por la unidad de procesamiento de imagenes 51, ajusta las posiciones de visualizacion de la informacion de etiqueta generadas por la unidad de generacion de imagenes superpuestas 43 en el panel tactil 52. Concretamente, la posicion de visualizacion de imagenes de la informacion de etiqueta se ajusta de manera que las imagenes de los dispositivos de campo 10a y 10b incluidas en la imagen G1 capturada por la camara 31 y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10a y 10b se visualizan en el panel tactil 32 con correspondencia entre ellas.
A continuacion, se describira el funcionamiento del sistema de visualizacion de la informacion y el dispositivo de visualizacion de la informacion constituido como se ha descrito anteriormente. La Fig. 8 es un diagrama de flujo que ilustra el funcionamiento del dispositivo de visualizacion de la informacion segun la segunda realizacion preferida de la presente invencion. El diagrama de flujo que se muestra en la Fig. 8 tiene el procesamiento de la etapa S21 anadido entre el procesamiento de la etapa S11 y el procesamiento de S12 que se muestra en la Fig. 3, y el procesamiento de las etapas S22 y S23 anadidas entre el procesamiento de la etapa S13 y el procesamiento de la etapa S14 que se muestra en la Fig. 3. El diagrama de flujo que se muestra en la Fig. 8. parecido al diagrama de flujo que se muestra en la Fig. 3, comienza cuando el trabajador W, por ejemplo, acciona el panel tactil 32 para establecer el modo de funcionamiento del dispositivo de visualizacion de la informacion 50 al modo de visualizacion de imagen superpuesta o similar.
En la etapa S11, cuando el modo de funcionamiento del dispositivo de visualizacion de la informacion 50 se establece en el modo de visualizacion superpuesto, primeramente la camara 31 captura una imagen. En la etapa S21, la imagen capturada por la camara 31 es sometida por la unidad de procesamiento de imagenes 51 al mismo procesamiento de imagenes que en la primera realizacion preferida, y es enviada a la unidad de control de la visualizacion 44. La imagen capturada por la camara 31 tambien se somete a procesamiento de imagen utilizando las imagenes de plantilla TP almacenadas en la memoria 36 en la unidad de procesamiento de imagenes 51, realizandose un procesamiento para identificar las posiciones de las imagenes de los dispositivos de campo 10a y 10b en la imagen Capturado por la camara 31. La informacion que indica el resultado de este procesamiento se envfa a la unidad de ajuste de posicion de visualizacion 52.
A continuacion, en la etapa S12, la unidad de medicion de la posicion 33 mide la posicion del dispositivo de visualizacion de la informacion 50 y la unidad de deteccion de la situacion 34 detecta la situacion del dispositivo de visualizacion de la informacion 50. Los resultados de medicion de la unidad de medicion de la posicion 33 y los resultados de deteccion de la unidad de deteccion de la situacion 34 son introducidos en la unidad de identificacion de dispositivos de campo 42 de la unidad de control 37 y son transmitidos desde la unidad de comunicacion inalambrica 35 al dispositivo servidor 20, a traves de la red N2, junto con informacion que indica el angulo de vision de la camara 31. A continuacion, de forma similar a la primera realizacion preferida, se transmite informacion de gestion que incluye informacion de posicion D1 de los dispositivos de campo 10a y 10b en el campo de vision F de la camara 31 del dispositivo de visualizacion de la informacion 50, informacion de etiqueta D2 e informacion de direccion D3 Desde el dispositivo servidor 20 al dispositivo de visualizacion de la informacion 50.
La informacion de gestion de los dispositivos de campo 10a y 10b transmitidos desde el dispositivo servidor 20 es
5
10
15
20
25
30
35
40
45
50
55
60
introducida en la unidad de identificacion de dispositivos de campo 42 del dispositivo de visualizacion de la informacion 50. Haciendo esto, en el dispositivo de visualizacion de la informacion 50 se obtiene informacion de gestion que incluye la informacion de posicion D1 de los dispositivos de campo 10a extremo 10b colocado en el campo de vision F de la camara 31, la informacion de etiqueta D2 y la informacion de direccion D3 . En la etapa S13, esta informacion de gestion se utiliza para identificar los dispositivos de campo 10a y 10b colocados en la direccion de captura de imagenes por la camara 31. Cuando se identifican los dispositivos de campo 10a y 10b colocados en la direccion de captura de imagenes de la camara 31, se genera una imagen que muestra la informacion de etiqueta de los dispositivos de campo identificados 10a y 10b que se emite a la unidad de ajuste de posicion de la visualizacion 52 mediante la unidad de generacion de imagenes superpuestas 43.
A continuacion, en la etapa S22, la unidad de ajuste de posicion de la visualizacion 52 decide si las posiciones de la imagen de los dispositivos de campo 10a y 10b en la imagen capturada por la camara 31 han sido identificadas por el procesamiento de imagenes de la unidad de procesamiento de imagenes 51 en la etapa S21. Si se decide que las posiciones de las imagenes de los dispositivos de campo 10a y 10b han sido identificadas, es decir, si el resultado de la decision en la etapa S22 es Sf, en la etapa S23, segun la posicion identificada de las imagenes de los dispositivos de campo 10a y 10b, la posicion de visualizacion de la informacion de etiqueta generada por la unidad de generacion de imagenes superpuestas 43 en el panel tactil 32 se ajusta mediante la unidad de ajuste de posicion de la visualizacion 52. Sin embargo, si se decide que las posiciones de las imagenes de los dispositivos de campo 10a y 10b no se han identificado, es decir, si el resultado de la decision en la etapa S22 es NO, se omite el procesamiento de la etapa S23.
En este caso, en la etapa S22, el caso en que se ha decidido que las posiciones de las imagenes de los dispositivos de campo 10a y 10b se han identificado, es decir, el caso en que el resultado de la decision en la etapa s22 es Sf, sena un caso en que, por ejemplo, como se muestra en la Fig. 6, se realiza una captura de imagenes cercana. En cambio, el caso en que en la etapa S22 se decide que las posiciones de las imagenes de los dispositivos de campo 10a y 10b no se han identificado, es decir, el caso en que el resultado de la decision en la etapa S22 es NO, sena un caso en que, por ejemplo, como se muestra en la Fig. 5, se realiza una captura de imagenes distante.
A continuacion, se emite una imagen que indica la informacion de etiqueta desde la unidad de ajuste de posicion de la visualizacion 52 a la unidad de control de la visualizacion 44. A continuacion, en la etapa S14 se muestra una imagen ajustada en posicion que indica la informacion de etiqueta o una imagen ajustada sin posicion que visualiza la informacion de etiqueta en el panel tactil 32, superpuesta con la imagen desde la unidad de procesamiento de imagenes 41. Es decir, como se muestra en la Fig. 6, las imagenes de los dispositivos de campo 10a y 10b y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10a y 10b se visualizan en el panel tactil 32 con correspondencia entre ellos. De forma alternativa, como se muestra en la Fig. 6, la imagen G1 capturada por la camara 31 y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10 se visualizan simplemente superpuestas en el panel tactil 32.
Cuando se completa el procesamiento anteriormente mencionado, en la etapa S15 la unidad de control de la visualizacion 44 toma la decision de si el trabajador W ha seleccionado, o no, una operacion de seleccion para seleccionar un dispositivo de campo 10 que se visualiza en el panel tactil 32. Si se toma la decision de que no se ha realizado una operacion de seleccion, es decir, si el resultado de la decision en la etapa S15 es NO, se realiza el procesamiento de las etapas S11, S21, S12, S13 y S22 a S24, y si se decide que se ha hecho una operacion de seleccion, es decir, si el resultado de la decision en la etapa S15 es Sf, se realiza el procesamiento de las etapas S16 a S18.
Como se ha indicado anteriormente, en la segunda realizacion preferida, la posicion del dispositivo de visualizacion de la informacion 50 se mide con la unidad de medicion de la posicion 33 y la situacion del mismo se detecta mediante la unidad de deteccion de la situacion 34, los resultados de medicion y los resultados de deteccion se usan para identificar los dispositivos de campo 10 colocados en la direccion de captura de imagenes de la camara 31 y la informacion de etiqueta de los dispositivos de campo identificados 10, que se muestra en el panel tactil 32 superpuesta sobre la imagen capturada por la camara 31. Cuando se hace esto, se aplica procesamiento de imagenes a la imagen capturada por la camara 31 para identificar las imagenes de los dispositivos de campo 10a y 10b, y la posicion de visualizacion de la informacion de etiqueta se ajusta en base a las posiciones identificadas. De manera parecida a la primera realizacion preferida, si se realiza una operacion para seleccionar un dispositivo de campo 10 visualizado en el panel tactil 32, en el panel tactil 32 se visualiza una pantalla de instrucciones con las instrucciones de configuracion y gestion del dispositivo de campo 10 seleccionado, habilitando la configuracion y gestion en respuesta a las instrucciones.
Haciendo esto, debido a que es posible operar de forma remota un dispositivo de campo 10 colocado en la direccion de captura de imagenes por la camara 31, el trabajador W puede realizar el mantenimiento del dispositivo de campo 10 sin ir al lugar de instalacion del mismo, Reduccion de la carga sobre el trabajador W y una mejora en la eficacia del trabajo. Ademas, debido a que las imagenes de los dispositivos de campo 10a y 10b y la imagen G2 que indica la informacion de etiqueta de los dispositivos de campo 10a y 10b se visualizan en el panel tactil 32 con correspondencia entre ellos, se puede impedir la configuracion, y similares, contrarios a la intencion del trabajador W. Por otra parte, parecido a la primera realizacion preferida, se elimina el problema de buscar un dispositivo de campo 10 que esta oculto detras de algo, mejorando asf la eficacia del trabajo. Ademas, el dispositivo de
5
10
15
20
25
30
35
40
45
50
55
visualizacion de la informacion 50, parecido al dispositivo de visualizacion de la informacion 30 de la primera realizacion preferida, se convierte en utilizable despues de la autenticacion introduciendo un ID y una contrasena, mejorando as^ la seguridad.
Aunque, en la segunda realizacion preferida, la descripcion ha sido para un ejemplo en el que las imagenes de la plantilla TP de los dispositivos de campo 10a y 10b se almacenan en la memoria 36 del dispositivo de visualizacion de la informacion 50, las imagenes de plantilla la TP se pueden almacenar en el dispositivo servidor 20 y descargarse mediante el dispositivo de visualizacion de la informacion 50, segun sea necesario. Haciendo esto, incluso si se agrega un dispositivo de campo que tiene un aspecto exterior diferente, se facilitan las adiciones y cambios en las imagenes de la plantilla TP.
En la segunda realizacion preferida, similar a la primera realizacion preferida, la informacion de gestion almacenada en la base de datos de dispositivos de campo 22 del dispositivo servidor 20 puede descargarse y almacenarse previamente en la memoria 36 del dispositivo de visualizacion de la informacion 50. Si se hace esto, la informacion de gestion almacenada en la memoria 36 puede utilizarse para identificar los dispositivos de campo 10 colocados en el campo de vision F de la camara 31, es decir, los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31, sin acceder al dispositivo servidor 20.
Tercera realizacion preferida
La Fig. 9 es un diagrama que ilustra las partes principales de la constitucion de un sistema de visualizacion de la informacion segun la tercera realizacion preferida de la presente invencion. En la Fig. 9, los elementos constituyentes que son los mismos que los que se muestran en la Fig. 1, tienen asignados los mismos sfmbolos de referencia. Como se muestra en la Fig. 9, el sistema de visualizacion de la informacion 3 de la tercera realizacion preferida tiene una pluralidad de dispositivos de campo 10, un dispositivo servidor 60 y un dispositivo de visualizacion de la informacion 70, pudiendose visualizar en el dispositivo de visualizacion de la informacion 70 informacion dinamica relativa a los dispositivos de campo 10 superpuestos sobre una imagen de los dispositivos de campo 10. En la tercera realizacion preferida, la informacion dinamica mencionada anteriormente es informacion que indica el estado de la comunicacion de los dispositivos de campo 10. El cilindro con el sfmbolo de referencia P5 en la Fig. 9 representa una instalacion dentro de una planta en la que estan instalados los dispositivos de campo 10.
El dispositivo servidor 60, parecido al dispositivo servidor 20 que se muestra en la Fig. 1 y la Fig. 5, realiza la gestion de los dispositivos de campo 10 a traves de la red N1 y proporciona informacion de gestion al dispositivo de visualizacion de la informacion 70 a traves de la red N2. Ademas, el servidor 60 proporciona al dispositivo de visualizacion de la informacion 70 informacion que indica el estado de la comunicacion de los dispositivos de campo 10. En este caso, la informacion que indica el estado de la comunicacion de los dispositivos de campo 10 es informacion tal como informacion que indica la intensidad de un enlace de comunicacion entre dispositivos de campo 10, la informacion que indica el estado de las ondas electromagneticas radiadas desde los dispositivos de campo 10, informacion que indica la calidad de la comunicacion, tal como la tasa de errores de bits, e informacion que indica las variaciones temporales del estado de la comunicacion predicha a partir de un historial anterior.
El dispositivo de visualizacion de la informacion 70 es accionado por el trabajador W y visualiza en el panel tactil 32 una imagen de la imagen G1 capturada por la camara 31, superpuesta con una imagen G3 que indica informacion que muestra el estado de la comunicacion de los dispositivos de campo 10. Concretamente, en el ejemplo que se muestra en la Fig. 9, la imagen G1 que se visualiza en el panel tactil 32 es una imagen en el campo de vision F de la camara 31, es decir, una imagen capturada de seis de los dispositivos de campo 10 de la pluralidad de dispositivos de campo 10 proporcionados en la instalacion P5, y la imagen G3 es una imagen de lmeas que muestra el estado de conexion entre los dispositivos de campo capturados 10. La imagen G3 se visualiza entre los dispositivos de campo 10 para los que se han establecido enlaces de comunicacion, cuyo espesor representa la intensidad de los enlaces de comunicacion. La imagen G3 que se muestra en la Fig. 9 es meramente un ejemplo y la imagen G3 que se muestra en el dispositivo de visualizacion de la informacion 70 puede ser, en lugar de una imagen de lmea, una imagen de flechas, o una imagen que representa la intensidad de las ondas electromagneticas por lmeas de contorno.
La Fig. 10 es un diagrama de bloques que ilustra la constitucion principal del dispositivo servidor y el dispositivo de visualizacion de la informacion segun la tercera realizacion preferida de la presente invencion. En la Fig. 10, los bloques que son los mismos que en la Fig. 2 tienen asignados los mismos sfmbolos de referencia y, para simplificar la ilustracion, se omiten las ilustraciones de los dispositivos de campo 10, la red N1 y la instalacion P5 que se muestra en la Fig. 9. Con respecto al dispositivo servidor 60 y al dispositivo de visualizacion de informacion 70, solo se ilustran los elementos constitutivos necesarios para la descripcion.
Como se muestra en la Fig. 10, el dispositivo servidor 60, ademas de la unidad de gestion 21, la base de datos de dispositivos de campo 22 y la unidad de comunicacion 23 del dispositivo servidor 20 que se muestra en la Fig. 2, tiene una unidad de analisis del estado de la comunicacion 24. La unidad de analisis del estado de la comunicacion 24 utiliza un mapa e informacion estructural de la instalacion P5 en la que estan instalados los dispositivos de campo 10 para realizar una simulacion de red o una simulacion de ondas electromagneticas y envfa los resultados de la misma a la unidad de gestion 21. Mediante la unidad de analisis del estado de la comunicacion 24, se obtiene
5
10
15
20
25
30
35
40
45
50
55
informacion que indica la intensidad de los enlaces de comunicacion entre los dispositivos de campo 10 o informacion que indica el estado de las ondas electromagneticas radiadas desde los dispositivos de campo 10 o similares.
La informacion de posicion D1 que indica la posicion de los dispositivos de campo 10 se almacena como informacion de gestion del dispositivo de campo 10 en la base de datos de dispositivos de campo 22.
El dispositivo de visualizacion de la informacion 70 tiene la camara 31, el panel tactil 32, la unidad de medicion de la posicion 33, la unidad de deteccion de la situacion 34, la unidad de comunicacion inalambrica 35, la memoria 36 y la unidad de control 37. Con respecto a estos puntos, el dispositivo de visualizacion de la informacion 70 tiene la misma constitucion que el dispositivo de visualizacion de la informacion 30 que se muestra en la Fig. 2. Sin embargo, hay diferencia con respecto al dispositivo de visualizacion de la informacion 30 que se muestra en la Fig. 2 en que el dispositivo de visualizacion de la informacion 70 tiene una unidad de generacion de imagenes superpuestas 71 en lugar de la unidad de generacion de imagenes superpuestas 43 y en que se elimina la unidad de gestion remota 45. Mientras que la unidad de generacion de imagenes superpuestas 43 que se muestra en la Fig. 2 genera una imagen G2 que indica informacion de etiqueta, la unidad de generacion de imagenes superpuestas 71 genera la imagen G3 que se muestra en la Fig. 9, segun informacion que indica el estado de la comunicacion de los dispositivos de campo 10 proporcionados desde el dispositivo servidor 60.
A continuacion, se describira el funcionamiento del sistema de visualizacion de la informacion y del dispositivo de visualizacion de la informacion que tiene la constitucion antes mencionada. La Fig.11 es un diagrama de flujo que ilustra el funcionamiento del dispositivo de visualizacion de informacion segun la tercera realizacion preferida de la presente invencion. El diagrama de flujo que se muestra en la Fig. 11, parecido al diagrama de flujo que se muestra en la Fig. 3, comienza cuando el trabajador W, por ejemplo, acciona el panel tactil 32 para establecer el modo de funcionamiento del dispositivo de visualizacion de la informacion 70 al modo de visualizacion de imagen superpuesta o similar.
En la etapa S31, cuando el modo de funcionamiento del dispositivo de visualizacion de la informacion 70 se ajusta en el modo de visualizacion superpuesto, primeramente la camara 31 captura una imagen. En este caso, debido a que el trabajador W, que trabaja presencialmente en una planta o similar, en la que estan instalados los dispositivos de campo 10, hace funcionar el dispositivo de visualizacion de la informacion 70, la imagen in situ es capturada por la camara 31. La imagen capturada por la camara 31 se somete al procesamiento de imagenes y se emite a la unidad de control de la visualizacion 44 mediante la unidad de procesamiento de imagenes 41.
A continuacion, en la etapa S32, la unidad de medicion de la posicion 33 mide la posicion del dispositivo de visualizacion de la informacion 70 y la unidad de deteccion de la situacion 34 detecta la situacion del dispositivo de visualizacion de la informacion 70. Los resultados de medicion de la unidad de medicion de la posicion 33 y los resultados de deteccion de la unidad de deteccion de la situacion 34 se introducen en la unidad de identificacion de dispositivos de campo 42 de la unidad de control 37 y se transmiten junto con informacion que indica el angulo de vision de la camara 31, desde la unidad de comunicacion inalambrica 35 al dispositivo servidor 60, a traves de la red N2.
Al recibir los resultados de medicion, y similares, transmitidos desde el dispositivo de visualizacion de la informacion 70, la unidad de gestion 21 del dispositivo servidor 60 identifica los dispositivos de campo 10 colocados en el campo de vision F de la camara 31 del dispositivo de visualizacion de la informacion 70. La unidad de gestion 21 lee la informacion de gestion tal como la informacion de posicion D1 de los dispositivos de campo 10 identificados desde la base de datos de dispositivos de campo 22 y la transmite a la unidad de comunicacion 23, haciendo que se transmita al dispositivo de visualizacion de la informacion 70.
La informacion de gestion del dispositivo de campo 10 transmitida desde el dispositivo servidor 60 se recibe en la unidad de comunicacion inalambrica 35 del dispositivo de visualizacion de la informacion 70, a traves de la red N2, y se introduce en la unidad de identificacion de dispositivos de campo 42. Haciendo esto, en el dispositivo de visualizacion de la informacion 70, debido a que se obtiene informacion de gestion, tal como la informacion de posicion D1 de los dispositivos de campo 10 colocados en el campo de vision F de la camara 31, en la etapa S33, se identifican los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31.
Cuando se identifican los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31, la informacion que indica los dispositivos de campo identificados 10 se envfa desde la unidad de identificacion de dispositivos de campo 42 a la unidad de generacion de imagenes superpuestas 71 y se transmite desde la unidad de comunicacion inalambrica 35, a traves de la red N2, al dispositivo servidor 60. Al recibir la informacion del dispositivo de visualizacion de la informacion 70, la unidad de gestion 21 del dispositivo servidor 60 obtiene desde la unidad de analisis del estado de la comunicacion 24 informacion que indica el estado de la comunicacion de los dispositivos de campo 10 identificados por dicha informacion, emitiendo la informacion a la unidad de comunicacion 23, haciendo que se transmita al dispositivo de visualizacion de la informacion 70.
La informacion que indica el estado de la comunicacion de los dispositivos de campo 10 que se transmite desde el dispositivo servidor 60 es recibida por la unidad de comunicacion inalambrica 35 del dispositivo de visualizacion de la
5
10
15
20
25
30
35
40
45
50
55
informacion 70 a traves de la red N2 y es introducida en la unidad de generacion de imagenes superpuestas 71. Haciendo esto, en la etapa S34, se obtiene informacion que indica el estado de la comunicacion de los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31. Cuando esto se produce, en la unidad de generacion de imagenes superpuestas 71, se genera una imagen que indica el estado de la comunicacion de los dispositivos de campo 10.
En la etapa S35, la imagen que indica el estado de la comunicacion de los dispositivos de campo 10 generados por la unidad de generacion de imagenes superpuestas 43 se emite a la unidad de control de la visualizacion 44 y se visualiza en el panel tactil 32, superpuesta con una imagen que esta sometida a procesamiento de imagenes por la unidad de procesamiento de imagenes 41. Es decir, como se muestra en la Fig. 9, la imagen G1 capturada por la camara 31 y la imagen de informacion G3 que indica el estado de la comunicacion de los dispositivos de campo 10 se visualizan superpuestas en el panel tactil 32.
Cuando se completa el procesamiento anteriormente mencionado, en la etapa S36, la unidad de control de la visualizacion 44 toma una decision sobre si el trabajador W ha realizado, o no, una instruccion para finalizar el modo de visualizacion superpuesta. Si no se ha realizado la instruccion de finalizacion, es decir, si el resultado de la decision en la etapa S36 es NO, se repite el procesamiento que comienza en la etapa S31, y si se ha realizado la instruccion de finalizacion, es decir, si el resultado de la decision en la etapa S36 es Sf, termina la serie de procesamientos que se muestra en la Fig. 11.
Como se ha indicado anteriormente, en la tercera realizacion preferida, la posicion del dispositivo de visualizacion de la informacion 70 se mide con la unidad de medicion de la posicion 33 y la situacion del mismo se detecta mediante la unidad de deteccion de la situacion 34, los resultados de medicion y los resultados de deteccion se usan para identificar los dispositivos de campo 10 colocados en la direccion de captura de imagenes de la camara 31 y la informacion que indica el estado de la comunicacion de los dispositivos de campo identificados 10, que se muestra en el panel tactil 32 superpuesta sobre la imagen capturada por la camara 31. Haciendo esto, debido a que es posible verificar visualmente informacion que indica el estado de la comunicacion de los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31, en el caso, por ejemplo, en que se cambia el lugar de instalacion de un dispositivo de campo 10, es facil identificar un lugar con buenas condiciones de senal de radio, reduciendo de este modo la carga sobre el trabajador W y mejorando la eficacia del trabajo. Ademas, es posible conseguir fiabilidad debido a que es posible saber hasta que punto mejora el estado de la comunicacion de un dispositivo de campo 10 despues del trabajo sobre el mismo.
El dispositivo de visualizacion de la informacion 70, parecido al dispositivo de visualizacion de la informacion 30 de la primera realizacion preferida, se convierte en utilizable despues de la autenticacion introduciendo un ID y una contrasena. Como resultado, debido a que no es necesario instalar una clave de seguridad concreta en el dispositivo de visualizacion de la informacion 70, incluso si el dispositivo de visualizacion de la informacion 70 se elimina, se roba o se pierde, no puede producirse una violacion de la clave de seguridad, mejorando asf la seguridad.
En la tercera realizacion preferida, parecida a la primera realizacion preferida, la informacion de gestion almacenada en la base de datos de dispositivos de campo 22 del dispositivo servidor 60 puede descargarse de antemano y almacenarse en la memoria 36 del dispositivo de visualizacion de la informacion 70. Si se hace esto, es posible, sin acceder al dispositivo servidor 60, utilizar la informacion de gestion almacenada en la memoria 36 para identificar los dispositivos de campo 10 colocados en el campo de vision F de la camara 31, es decir, identificar los dispositivos de campo 10 colocados en la direccion de captura de imagenes por la camara 31.
Los dispositivos de visualizacion de la informacion 30, 50 y 70 de la primera a la tercera realizaciones preferidas anteriormente mencionadas tienen una camara 31 y un panel tactil 32, y son dispositivos que son transportados por el trabajador W. Dicho dispositivo de visualizacion de la informacion puede ser implementado, por ejemplo, mediante dispositivos que tienen camaras, tales como un telefono inteligente, un terminal de tableta o un casco de realidad virtual.
Los sistemas de visualizacion de la informacion descritos anteriormente y los dispositivos de visualizacion de la informacion segun la primera y segunda realizaciones preferidas visualizan en el panel tactil 32 informacion que identifica los dispositivos superpuestos en una imagen capturada por la camara 31 y accionan de forma remota los dispositivos seleccionados. Por esta razon, se pueden utilizar en aplicaciones que realizan la gestion y el mantenimiento de equipos que implementan la automatizacion de viviendas y edificios. Un ejemplo es aquel en el que los sensores, interruptores, dispositivos de control y similares, escondidos dentro o detras de las paredes son gestionados remotamente, y la gestion remota de dispositivos e instalaciones en los pisos superiores o inferiores, que son diffciles de alcanzar con ondas de radio. Si la camara 31 y el panel tactil 32 estan separados, utilice en aplicaciones en las que un robot sobre el que se monta la camara 31 se acciona remotamente accionando el panel tactil 32.
El sistema de visualizacion de la informacion descrito anteriormente y el dispositivo de visualizacion de la informacion segun la tercera realizacion preferida visualizan en el panel tactil 32, superpuestos sobre una imagen capturada por la camara 31, informacion que indica el estado de la comunicacion de los dispositivos, tal como informacion que indica la intensidad de un enlace de comunicacion, informacion que indica el estado de las ondas
5
10
15
20
25
30
electromagneticas radiadas desde los dispositivos, informacion que indica la calidad de la comunicacion e informacion que indica las variaciones temporales del estado de la comunicacion predicha a partir de un historial anterior. Por este motivo, es posible el uso en aplicaciones en las que se instalan dispositivos de comunicacion inalambricos, un lugar que tenga un buen estado de la comunicacion, o en aplicaciones en las que se mida la influencia de ondas electromagneticas radiadas por equipos medicos.
Segun una realizacion preferida de la presente invencion, la posicion y la situacion de un dispositivo de visualizacion de la informacion son detectadas mediante una unidad de deteccion y los resultados de deteccion se utilizan para identificar un dispositivo de campo colocado en la direccion de captura de imagenes, un visualizador se realiza en una unidad de visualizacion, de al menos una entre informacion estatica e informacion dinamica con respecto al dispositivo de campo especificado, superpuesto con una imagen capturada mediante una unidad de captura de imagenes. Haciendo esto, debido a que al menos uno entre informacion estatica e informacion dinamica con respecto a un dispositivo de campo necesario para realizar el trabajo, se visualiza colocado sobre una imagen capturada mediante una unidad de captura de imagenes, se reduce la carga sobre el trabajador y se mejora la eficacia del trabajo.
Tal como se emplean en esta memoria, los siguientes terminos direccionales "hacia adelante, hacia atras, arriba, hacia abajo, derecha, izquierda, vertical, horizontal, debajo, transversal, fila y columna", asf como cualquier otro termino direccional parecido, se refieren a las direcciones de un aparato equipado con la presente invencion. Por consiguiente, estos terminos, tal como se utilizan para describir la presente invencion, deben interpretarse en relacion con un aparato equipado con la presente invencion.
El termino "configurado" se utiliza para describir un componente, unidad o parte de un dispositivo que incluye hardware y software que se construyen y/o programan para llevar a cabo la funcion deseada.
Ademas, los terminos que se expresan como "funcion de medio mas" en las reivindicaciones deben incluir cualquier estructura que se pueda utilizar para llevar a cabo la funcion de esa parte de la presente invencion.
El termino unidad se utiliza para describir un componente, unidad o parte de un hardware y software que se construye y/o programa para llevar a cabo la funcion deseada. Ejemplos tfpicos del hardware pueden incluir, pero no estan limitados a, un dispositivo y un circuito.
Aunque las realizaciones preferidas de la presente invencion se han descrito e ilustrado anteriormente, debe entenderse que estos son ejemplos de la presente invencion y no se deben considerar limitativos. Se pueden hacer adiciones, omisiones, sustituciones y otras modificaciones sin apartarse del alcance de la presente invencion. En consecuencia, la presente invencion no debe considerarse limitada por la descripcion anterior y esta limitada unicamente por el alcance de las reivindicaciones.

Claims (11)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Un dispositivo de visualizacion de la informacion (30, 50, 70) que comprende: una unidad de captura de imagenes (31) configurada para capturar una imagen;
    una unidad de visualizacion (32) configurada para visualizar la imagen capturada mediante la unidad de captura de imagenes;
    una unidad de deteccion (33, 34) configurada para detectar una posicion y una situacion del dispositivo de visualizacion de la informacion; una unidad de identificacion (42) configurada para identificar un dispositivo de campo (10, 10a, 10b) colocado en una direccion de captura de imagenes mediante la unidad de captura de imagenes, utilizando un resultado de deteccion de la unidad de deteccion;
    una unidad de control de la visualizacion (44) configurada para producir una visualizacion superpuesta en la unidad de visualizacion de la imagen capturada mediante la unidad de captura de imagenes, superpuesta con al menos una entre informacion estatica e informacion dinamica con respecto al dispositivo de campo identificado mediante la unidad de identificacion independientemente de si una imagen del dispositivo de campo se incluye en la imagen capturada mediante la unidad de captura de imagenes;
    una unidad de procesamiento de imagenes (51) configurada para identificar una posicion de visualizacion, dentro de la imagen capturada mediante la unidad de captura de imagenes, de la imagen del dispositivo de campo que se incluye en la imagen capturada mediante la unidad de captura de imagenes; y
    una unidad de ajuste de posicion de la visualizacion (52) configurada para ajustar la posicion de visualizacion, dentro de la imagen capturada por la unidad de captura de imagenes, de al menos una entre informacion estatica e informacion dinamica que se visualiza mediante la unidad de control de la visualizacion segun la posicion de visualizacion identificada mediante la unidad de procesamiento de imagenes, en donde
    cuando se determina que la posicion de visualizacion de la imagen del dispositivo de campo no puede ser identificada mediante la unidad de procesamiento de imagenes, la, al menos una, entre informacion estatica e informacion dinamica del dispositivo de campo se visualiza en una posicion de visualizacion dentro de la imagen capturada mediante la unidad de captura de imagenes que se corresponde con una posicion del dispositivo de campo identificado mediante la unidad de identificacion; y
    cuando se determina que la posicion de visualizacion de la imagen del dispositivo de campo no puede ser identificada mediante la unidad de procesamiento de imagenes, la unidad de ajuste de posicion de la visualizacion ajusta la posicion de visualizacion en la imagen de la, al menos una, entre la informacion estatica y la posicion dinamica del dispositivo de campo.
  2. 2. El dispositivo de visualizacion de la informacion (30, 50, 70) segun la reivindicacion 1 en donde
    la informacion estatica incluye informacion de identificacion que esta asignada de manera unica a cada dispositivo de campo (10, 10a, 10b) y
    La informacion dinamica incluye informacion que indica un estado de la comunicacion de cada uno de los dispositivos de campo.
  3. 3. El dispositivo de visualizacion de la informacion (30, 50, 70) segun la reivindicacion 1 que comprende ademas:
    una unidad de almacenamiento (36) configurada para almacenar informacion de posicion que indica una posicion del dispositivo de campo (10, 10a, 10b) en donde
    la unidad de identificacion (42) esta configurada para identificar el dispositivo de campo colocado en una direccion de captura de imagenes mediante la unidad de captura de imagenes (31), utilizando un resultado de deteccion de la unidad de deteccion (33, 34) y la informacion de posicion almacenada en la unidad de almacenamiento.
  4. 4. El dispositivo de visualizacion de la informacion segun la reivindicacion 3 en donde
    la unidad de almacenamiento (36) esta configurada para almacenar, ademas de la informacion de posicion del
    dispositivo de campo (10, 10a, 10b), una imagen de la plantilla que indica la imagen del dispositivo de campo, y
    la unidad de procesamiento de imagenes (51) esta configurada para identificar la posicion del dispositivo de campo incluido en la imagen, utilizando la imagen de la plantilla almacenada en la unidad de almacenamiento.
  5. 5. Un sistema de visualizacion de la informacion (1) que comprende:
    un dispositivo de visualizacion de la informacion (30, 50, 70) segun la reivindicacion 1, y
    5
    10
    15
    20
    25
    30
    35
    40
    45
    un dispositivo servidor (20) configurado para suministrar al dispositivo de visualizacion de la informacion al menos una entre la informacion estatica y la informacion dinamica, relativa al dispositivo de campo (10, 10a, 10b) que se va a visualizar en el dispositivo de visualizacion de la informacion.
  6. 6. El sistema de visualizacion de la informacion (1) segun la reivindicacion 5 en donde el dispositivo servidor (20) esta configurado para:
    recibir la posicion del dispositivo de visualizacion de la informacion (30, 50, 70), la situacion del dispositivo de visualizacion de la informacion y un angulo de vision de la unidad de captura de imagenes (31) desde la unidad de deteccion (33, 34);
    identificar el dispositivo de campo (10, 10a, 10b) en base a la posicion del dispositivo de visualizacion de la informacion, la situacion del dispositivo de visualizacion de la informacion y el angulo de vision de la unidad de captura de imagenes que se ha recibido;
    leer la informacion de posicion, la informacion de etiqueta y la informacion de direccion del dispositivo de campo, que se ha identificado, desde una base de datos de dispositivos de campo (22), y
    transmitir la informacion de posicion, la informacion de etiqueta y la informacion de direccion del dispositivo de campo a la unidad de identificacion (42) del dispositivo de visualizacion de la informacion.
  7. 7. Un procedimiento de visualizacion de la informacion para visualizar la informacion relativa a un dispositivo de campo (10, 10a, 10b) en un dispositivo de visualizacion de la informacion (30, 50, 70) que comprende:
    capturar una imagen;
    visualizar la imagen que se ha capturado;
    detectar una posicion y una situacion del dispositivo de visualizacion de la informacion;
    identificar el dispositivo de campo colocado en una direccion de captura de imagenes utilizando un resultado de la deteccion;
    provocar una visualizacion superpuesta de la imagen que se ha capturado, superpuesta con al menos una entre informacion estatica e informacion dinamica con respecto al dispositivo de campo que se ha identificado independientemente de si se incluye una imagen del dispositivo de campo en la imagen que se ha capturado;
    identificar una posicion de visualizacion, dentro de la imagen que se ha capturado, de la imagen del dispositivo de campo que se incluye en la imagen que se ha capturado, y
    ajustar la posicion de visualizacion, dentro de la imagen que se ha capturado, de al menos una de la informacion estatica y la informacion dinamica que se visualiza segun la posicion de visualizacion que se ha identificado, en donde
    cuando se determina que la posicion de visualizacion de la imagen del dispositivo de campo no se puede identificar, la, al menos una, entre la informacion estatica y la informacion dinamica del dispositivo de campo se visualiza en una posicion de visualizacion dentro de la imagen que se ha capturado que se corresponde con una posicion del dispositivo de campo que se ha identificado, y
    cuando se determina que la posicion de visualizacion de la imagen del dispositivo de campo no se puede identificar mediante la unidad de procesamiento de imagenes, la posicion de la visualizacion se ajusta en la imagen de la, al menos una, entre la informacion estatica y la posicion dinamica del dispositivo de campo.
  8. 8. El procedimiento de visualizacion de la informacion segun la reivindicacion 7 que comprende ademas:
    almacenar la informacion de posicion que indica una posicion del dispositivo de campo (10, 10a, 10b), e
    identificar el dispositivo de campo colocado en la direccion de captura de imagenes, utilizando la posicion y la situacion del dispositivo de visualizacion de la informacion (30, 50, 70) que se ha detectado y la informacion de posicion que se ha almacenado.
  9. 9. El procedimiento de visualizacion de la informacion segun la reivindicacion 7 que comprende ademas:
    almacenar, ademas de la informacion de posicion del dispositivo de campo (10, 10a, 10b), una imagen de la plantilla que indica la imagen del dispositivo de campo, e
    identificar una posicion del dispositivo de campo incluida en la imagen, utilizando la imagen de la plantilla que se ha almacenado.
  10. 10. El procedimiento de visualizacion de la informacion segun la reivindicacion 7 que comprende ademas:
    suministrar mediante un dispositivo servidor (20) al dispositivo de visualizacion de la informacion (30, 50, 70) al menos una entre la informacion estatica y la informacion dinamica, relativa al dispositivo de campo (10, 10a, 10b) que se va a visualizar en el dispositivo de visualizacion de la informacion.
  11. 11. El procedimiento de visualizacion de la informacion segun la reivindicacion 10 que comprende ademas:
    5 recibir por el dispositivo servidor (20) la posicion del dispositivo de visualizacion de la informacion (30, 50, 70), la situacion del dispositivo de visualizacion de la informacion y un angulo de vision de una unidad de captura de imagenes (31);
    identificar, mediante el dispositivo servidor, el dispositivo de campo (10, 10a, 10b) en base a la posicion del dispositivo de visualizacion de la informacion, la situacion del dispositivo de visualizacion de la informacion y el 10 angulo de vision de la unidad de captura de imagenes que se ha recibido;
    leer, mediante el dispositivo servidor, la informacion de posicion, la informacion de etiqueta y la informacion de direccion del dispositivo de campo, que se ha identificado, desde una base de datos de dispositivos de campo (22), y
    transmitir, mediante el dispositivo de servidor, la informacion de posicion, la informacion de etiqueta y la informacion de direccion del dispositivo de campo al dispositivo de visualizacion de la informacion.
    15 12. Un producto de programa informatico incrustado en un medio legible por ordenador no transitorio que incluye
    instrucciones programadas,
    en donde las instrucciones, cuando son ejecutadas por un ordenador, hacen que el ordenador realice el procedimiento de visualizacion de la informacion segun la reivindicacion 7 u 8.
ES13167782.5T 2012-05-18 2013-05-15 Dispositivo de visualización de la información y sistema de información del mismo Active ES2639136T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012114454 2012-05-18
JP2012114454A JP5679521B2 (ja) 2012-05-18 2012-05-18 情報表示装置及び情報表示システム

Publications (1)

Publication Number Publication Date
ES2639136T3 true ES2639136T3 (es) 2017-10-25

Family

ID=48747294

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13167782.5T Active ES2639136T3 (es) 2012-05-18 2013-05-15 Dispositivo de visualización de la información y sistema de información del mismo

Country Status (4)

Country Link
US (1) US9241110B2 (es)
EP (1) EP2665251B1 (es)
JP (1) JP5679521B2 (es)
ES (1) ES2639136T3 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911515B2 (en) * 2012-05-24 2021-02-02 Deka Products Limited Partnership System, method, and apparatus for electronic patient care
JP2014102668A (ja) * 2012-11-20 2014-06-05 Toshiba Corp 表示装置
AU2015329347B2 (en) * 2014-10-07 2018-04-12 Tlv Co., Ltd. Fluid leakage data management apparatus and management system
JP6248985B2 (ja) * 2015-06-11 2017-12-20 横河電機株式会社 情報検索システム及び情報検索方法
JP2017004279A (ja) 2015-06-11 2017-01-05 横河電機株式会社 情報収集システム、情報収集端末装置、情報収集サーバ装置、及び情報収集方法
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
WO2017175368A1 (ja) * 2016-04-08 2017-10-12 三菱電機株式会社 通信端末及び通信システム
KR102464296B1 (ko) * 2017-01-24 2022-11-04 론자 리미티드 가상 또는 증강 현실 디스플레이를 사용하여 산업적 메인터넌스를 수행하기 위한 방법들 및 시스템들
JP6412974B1 (ja) * 2017-03-30 2018-10-24 西日本電信電話株式会社 情報管理装置、情報管理方法、及び情報管理プログラム
JP7057300B2 (ja) 2019-02-22 2022-04-19 ファナック株式会社 制御システム
JP2020197836A (ja) * 2019-05-31 2020-12-10 ファナック株式会社 産業用機械のデータ収集確認装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053169B2 (ja) * 1997-08-07 2000-06-19 日本電信電話株式会社 景観ラベル利用型通信装置およびシステム
JPWO2004048895A1 (ja) * 2002-11-22 2006-03-23 財団法人くまもとテクノ産業財団 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2005115500A (ja) 2003-10-06 2005-04-28 Mitsubishi Electric Corp 情報処理装置及び情報処理方法
JP2006318102A (ja) * 2005-05-11 2006-11-24 Yokogawa Electric Corp フィールド機器管理装置およびフィールド機器管理方法
JP2008269310A (ja) * 2007-04-20 2008-11-06 Yokogawa Electric Corp プラント保守支援システム
KR101485458B1 (ko) * 2007-07-02 2015-01-26 삼성전자주식회사 개체 정보를 포함하는 화상 파일 생성 방법 및 장치
JP5244012B2 (ja) * 2009-03-31 2013-07-24 株式会社エヌ・ティ・ティ・ドコモ 端末装置、拡張現実感システム及び端末画面表示方法
KR101614387B1 (ko) * 2009-12-09 2016-04-21 삼성전자 주식회사 화상형성장치와 연결되는 호스트장치 및 설정정보 관리방법

Also Published As

Publication number Publication date
JP5679521B2 (ja) 2015-03-04
US9241110B2 (en) 2016-01-19
EP2665251B1 (en) 2017-06-21
EP2665251A3 (en) 2015-05-27
EP2665251A2 (en) 2013-11-20
JP2013242648A (ja) 2013-12-05
US20130308016A1 (en) 2013-11-21

Similar Documents

Publication Publication Date Title
ES2639136T3 (es) Dispositivo de visualización de la información y sistema de información del mismo
CN101346744B (zh) 配置用于监视空间区域的监视设备的方法
US20150379771A1 (en) Image data generating device, portable terminal device, and portable control device
EP3147738B1 (en) Inspection work support device, inspection work support system, and inspection work support method
ES2716127T3 (es) Procedimiento, equipo de cálculo, unidad de usuario y sistema para parametrizar un aparato eléctrico
KR101720857B1 (ko) 안전 관제 시스템
TWI550301B (zh) 定位系統及方法
JP2014229020A (ja) 情報提供装置及び情報提供システム
CN104853341B (zh) 信息设置装置及方法、非暂态计算机可读存储介质和无线通信系统
KR20150083480A (ko) 3차원 입체 영상을 활용한, 설비 통합 관리 시스템
JP2015102880A (ja) 作業支援システム
JP5465209B2 (ja) 通信端末、無線ネットワーク可視化システム、無線通信可視化方法およびプログラム
ES2551394T3 (es) Sistema y método de instalación y configuración de alarma
EP3104312A1 (en) Information search system and information search method
KR20140025259A (ko) 알에프아이디 기반의 시설물 관리 시스템
KR100688205B1 (ko) 지피에스 공유를 통한 이동통신 단말기 위치정보 보정 시스템 및 그 동작방법
US20170083184A1 (en) Information processing device and displaying method
ES2866912T3 (es) Sistema de posicionamiento y método para determinar la posición operativa de un dispositivo aéreo
EP3803224B1 (en) A method of generating for a user augmented reality information related to an hvac component
EP3669511B1 (en) Automatic building system control restrictions based on physical presence defined by access control event information and knowledge base system
KR20130116392A (ko) Gps 기능이 내장된 모바일 단말을 이용한 피엘시 시스템의 시간 동기화 방법
JP6917678B2 (ja) 情報漏洩防止システム、情報漏洩防止方法、携帯端末
JP2012134894A (ja) 無線ネットワークの保守端末および保守システム
JP6711384B2 (ja) 識別情報入力支援システム
JP2018012407A (ja) 鉄道の支障範囲可視化システムおよび管理サーバ