ES2396215T3 - Aparato de procesamiento de imágenes - Google Patents

Aparato de procesamiento de imágenes Download PDF

Info

Publication number
ES2396215T3
ES2396215T3 ES11161502T ES11161502T ES2396215T3 ES 2396215 T3 ES2396215 T3 ES 2396215T3 ES 11161502 T ES11161502 T ES 11161502T ES 11161502 T ES11161502 T ES 11161502T ES 2396215 T3 ES2396215 T3 ES 2396215T3
Authority
ES
Spain
Prior art keywords
image
display
menu
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11161502T
Other languages
English (en)
Inventor
Daisuke Mitani
Yuki Taniyasu
Takeshi Yoshiura
Koji Shimada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Application granted granted Critical
Publication of ES2396215T3 publication Critical patent/ES2396215T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

Un aparato de procesamiento de imágenes (100) para procesar una imagen de un objeto destino (2)mientras se muestra la imagen del objeto destino (2) en una unidad de visualización (102 ) para la inspección delobjeto destino (2), comprendiendo el aparato de procesamiento de imágenes (100): un medio de visualización de imágenes destino (247) para mostrar la imagen del objeto destino (2) en la unidad devisualización (102); un medio de selección de imagen (241) para seleccionar, según una operación de selección, toda o parte de laimagen del objeto destino (2) mostrado en la unidad de visualización (102); y un medio de visualización de menú (244) para mostrar una imagen de menú que se solapará con la imagen delobjeto destino (2) en un estado translúcido, estando formada la imagen de menú por una pluralidad de partes queson imágenes parciales para mostrar información o para recibir una operación de entrada, en el que el medio de visualización de menú (244) incluye un medio de conmutación de visualización (251) paraconmutar, según una instrucción de conmutación procedente del exterior, la imagen de menú mostrada en la unidadde visualización (102) entre una primera imagen de menú de un primer tamaño y una segunda imagen de menú deun segundo tamaño que es diferente al primer tamaño.

Description

Aparato de procesamiento de imágenes.
ANTECEDENTES DE LA INVENCIÓN
1.
CAMPO TÉCNICO
[0001] La presente invención se refiere a un aparato de procesamiento de imágenes y, en particular, a un aparato de procesamiento de imágenes que controla la visualización de una imagen objeto de procesamiento y la visualización de un menú relacionado con funciones de procesamiento de imágenes en la misma pantalla.
2.
TÉCNICA RELACIONADA
[0002] En el campo de la automatización de fábricas (FA) y similares, se utiliza un denominado sensor visual como un aparato para detectar de manera óptica defectos en productos semiacabados en el proceso de fabricación, en productos acabados antes de su distribución, y similares, y para medir de manera óptica el tamaño de tales defectos.
[0003] Cuando se lleva a cabo la detección y la medición con un sensor visual, se captura una imagen de una pieza de trabajo (objeto), y la inspección y la medición se llevan a cabo realizando varios tipos de procesamiento de imágenes en la imagen de entrada obtenida mediante un proceso de formación de imágenes. Cuando un sensor visual está instalado en un emplazamiento de fabricación real o similar, se utiliza un aparato de procesamiento de imágenes para procesar una imagen de entrada capturada proporcionada por el aparato de formación de imágenes incluido en el sensor visual. Después, un usuario observa la imagen de entrada en un monitor y fija valores de varios elementos relacionados con la inspección y la medición mientras comprueba la imagen de entrada visualizada. Una función para mostrar una imagen que sirve como el objetivo del procesamiento y un menú de procesamiento de imágenes en la misma pantalla se propone en la solicitud de patente japonesa pendiente de examen número H07160456, por ejemplo.
[0004] La solicitud de patente japonesa pendiente de examen número H07-160456 desvela un procedimiento de visualización para dividir una pantalla de visualización en un área de trabajo en la que se muestra la imagen objeto de procesamiento y un área de visualización en la que se muestra el menú de procesamiento de imágenes. Siempre que la pantalla sea lo bastante grande, la visibilidad de la imagen objeto de procesamiento no se verá afectada incluso si el área de trabajo y el área de visualización del menú de procesamiento de imágenes se muestran a la vez en la misma pantalla.
[0005] Sin embargo, el tamaño de la pantalla es limitado en el caso de, por ejemplo, un dispositivo de visualización con el que se recorre un emplazamiento de fabricación o similar y, por lo tanto, cuando el área de visualización de la imagen objeto de procesamiento y el área de visualización del menú de procesamiento de imágenes se muestran a la vez en la misma pantalla como en la solicitud de patente japonesa pendiente de examen número H07-160456, las áreas serán inevitablemente pequeñas. Por este motivo, el usuario no puede comprobar adecuadamente la imagen objeto de procesamiento cuando se selecciona un elemento del menú mientras comprueba la imagen objeto de procesamiento y, por lo tanto, la operatividad en tal procedimiento de visualización es mala.
[0006] El documento US 2006/107223 desvela un sistema y un procedimiento para automatizar la configuración de localizadores y detectores del visionado de un objeto en la HMI de un detector de visión determinando bordes detectables y ajustando de la mejor manera posible los localizadores y detectores en una ubicación del visionado del objeto siguiendo el establecimiento de un punto de funcionamiento seleccionado por el usuario en el visionado, tal como haciendo clic con un cursor GUI. De esta manera, la colocación y dimensionamiento iniciales de los elementos gráficos de las ROI de los localizadores y detectores se optimizan relativamente sin un ajuste excesivo por parte del usuario. Puede seleccionarse la dirección de los localizadores, incluyendo la dirección de la máquina o una dirección de movimiento lineal, una dirección transversal o una dirección inclinada oblicua a la dirección transversal y una dirección de movimiento. Los detectores pueden seleccionarse en función de herramientas de análisis particulares, incluyendo herramientas de brillo, herramientas de contraste y plantillas adaptadas. Cada localizador y detector está asociado a un conjunto particular de parámetros de funcionamiento, tales como un umbral de activación, que se muestran en un cuadro de control de la GUI.
[0007] Un sistema de visión de máquinas industriales se desvela en el documento "PV310". URL:http://www.panasonic-electric-works.pl/pewpl/pl/downloads/ds x633 en pv310.pdf (disponible el 12 de marzo de 2011). Este sistema es un sistema de inspección industrial para la detección óptica de defectos, con una función de menú transparente, donde las ventanas de propiedades pueden pasar a un modo de visualización translúcido con el
fin de poder llevarse a cabo operaciones mientras se ven las imágenes capturadas.
[0008] El documento US 2010/053213 A1 desvela un dispositivo de almacenamiento de un terminal de generación de informes que almacena una tabla de importancia. La tabla de importancia almacena grados de importancia de elementos respectivos de información de accesorio de imágenes médicas. Antes de mostrar una imagen médica en una pantalla, una sección de definición de área extrae un área de visualización principal objetivo de la imagen médica y define un área de visualización de información de accesorio fuera del área de visualización principal objetivo. Una sección de definición de estilo de visualización calcula un área de visualización necesaria para cada elemento individual de la información de accesorio y discrimina entre elementos que caben en el área de visualización de información de accesorio y entre elementos que no caben. La sección de definición de estilo de visualización decide no mostrar los elementos que no caben en el área de visualización de información de accesorio o decide visualizarlos de manera transparente, mediante un desplazamiento por pantalla, mediante conmutación o con una fuente pequeña.
[0009] En el documento WO2007/061827 A2 se desvelan sistemas, procedimientos, medios legibles por ordenador, interfaces de usuario y otras implementaciones para organizar, gestionar y presentar objetos gráficos (widgets) en áreas de visualización asociadas a múltiples entornos de paneles de control. En algunas implementaciones, una primera área de visualización asociada a un primer entorno de panel de control está configurada para mostrar al menos un objeto gráfico de un primer conjunto de objetos gráficos. Una segunda área de visualización asociada a un segundo entorno de panel de control está configurada para mostrar al menos un objeto gráfico de un segundo conjunto de objetos gráficos
[0010] Por estos motivos, un objeto de la presente invención es proporcionar un aparato de procesamiento de imágenes que pueda mostrar una imagen sin afectar a su visibilidad, incluso en el caso de una pantalla que tenga un tamaño limitado.
[0011] Un aparato de procesamiento de imágenes de la presente invención es un aparato de procesamiento de imágenes para procesar una imagen de un objeto destino mientras se muestra la imagen del objeto destino en una unidad de visualización para la inspección del objeto destino, incluyendo el aparato de procesamiento de imágenes: un medio de visualización de imagen destino para mostrar la imagen del objeto destino en la unidad de visualización; un medio de selección de imagen para seleccionar, según una operación de selección, toda o parte de la imagen del objeto destino mostrado en la unidad de visualización; y un medio de visualización de menú para mostrar una imagen de menú que se solapa con la imagen del objeto destino en un estado translúcido, estando formada la imagen de menú por una pluralidad de partes que son imágenes parciales para mostrar información o para recibir una operación de entrada, en el que el medio de visualización de menú incluye un medio de conmutación de visualización para conmutar, según una instrucción de conmutación procedente del exterior, la imagen de menú mostrada en la unida de visualización entre una primera imagen de menú de un primer tamaño y una segunda imagen de menú de un segundo tamaño que es diferente al primer tamaño.
[0012] Preferentemente, el número de partes de la primera imagen de menú puede ser diferente al número de partes de la segunda imagen de menú.
[0013] Preferentemente, según la instrucción de conmutación, el medio de conmutación de visualización conmuta entre la visualización y la no visualización de todas las partes de la imagen de menú en la unidad de visualización. Dicho de otro modo, el número de partes de la primera o de la segunda imagen de menú puede ser cero.
[0014] Preferentemente, según la instrucción de conmutación, el medio de conmutación de visualización conmuta entre la visualización y la no visualización de toda la imagen de menú en la unidad de visualización. Dicho de otro modo, el tamaño de la primera o de la segunda imagen de menú puede ser cero.
[0015] Preferentemente, el aparato de procesamiento de imágenes incluye además: una unidad de instrucciones que se hace funcionar para proporcionar la instrucción de conmutación, en el que la unidad de instrucciones se muestra de manera fija en una posición predeterminada en una pantalla de la unidad de visualización.
[0016] Preferentemente, la unidad de visualización y el aparato de procesamiento de imágenes están configurados de manera solidaria para ser portátiles.
[0017] Según la presente invención, una imagen de menú formada por una pluralidad de partes que son imágenes parciales para mostrar información o para recibir una operación de entrada se muestra de manera solapada con una imagen de un objeto destino en un estado translúcido, y la conmutación puede llevarse a cabo según una instrucción de conmutación procedente del exterior para modificar el tamaño del área ocupada por la
imagen de menú en la unidad de visualización. Esto permite mostrar una imagen sin afectar su visibilidad incluso en una unidad de visualización que tenga un tamaño de pantalla limitado. Como resultado, es posible obtener una operatividad favorable incluso en caso de seleccionar toda o parte de la imagen mostrada del objeto destino.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0018]
La FIG. 1 es un diagrama esquemático que muestra una configuración global de un sistema de sensor visual según una realización de la presente invención;
La FIG. 2 es un diagrama de configuración de bloques del sistema de sensor visual según la realización de la presente invención;
La FIG. 3 es un diagrama que muestra esquemáticamente datos intercambiados entre una unidad de ajuste de visualización y el sensor visual según la realización de la presente invención;
La FIG. 4 es un diagrama que muestra un ejemplo de una configuración para llevar a cabo un procesamiento de síntesis de imágenes según la realización de la presente invención;
La FIG. 5 es un diagrama de flujo de un procesamiento de imágenes en un modo de ajuste según la realización de la presente invención;
Las FIG. 6A y 6B son diagramas que muestran ejemplos de pantallas de visualización según la realización de la presente invención;
Las FIG. 7A y 7B son diagramas que muestran ejemplos de pantallas de visualización según la realización de la presente invención;
Las FIG. 8A y 8B son diagramas que muestran ejemplos de pantallas de visualización según la realización de la presente invención;
Las FIG. 9A y 9B son diagramas que muestran ejemplos de pantallas de visualización según la realización de la presente invención;
Las FIG. 10A a 10C son diagramas que muestran ejemplos de pantallas de visualización según la realización de la presente invención;
Las FIG. 11A y 11B son diagramas que muestran ejemplos de pantallas de visualización según la realización de la presente invención;
La FIG. 12 es un diagrama que muestra un ejemplo de una pantalla de visualización según la realización de la presente invención;
La FIG. 13 es un diagrama que ilustra cómo está acoplado el sensor visual según la realización de la presente invención;
La FIG. 14 es un diagrama que ilustra cómo está acoplada una pluralidad de los sensores visuales según la realización de la presente invención;
La FIG. 15 es un diagrama esquemático que muestra una configuración global de un sistema de sensor visual según otra realización de la presente invención; y
La FIG. 16 es un diagrama de configuración de hardware de un aparato de procesamiento de imágenes del sistema de sensor visual según la otra realización de la presente invención.
DESCRIPCIÓN DETALLADA
[0019] A continuación se ofrece una descripción detallada de realizaciones de la presente invención con referencia a los dibujos. Debe observarse que las partes de los dibujos que son idénticas o relacionadas entre sí tienen los mismos signos de referencia, omitiéndose descripciones redundantes de las mismas.
[0020] Aunque a continuación se describe un aparato de procesamiento de imágenes como una unidad de ajuste de visualización que incluye una pantalla de visualización como una parte integrante, la invención no está limitada a esto. La pantalla de visualización puede proporcionarse por separado. Además, aunque el aparato de procesamiento de imágenes se proporciona por separado con respecto a un sensor visual que presenta una unidad de formación de imágenes para obtener una imagen de entrada, el aparato de procesamiento de imágenes puede estar incorporado en el sensor visual.
[0021] La FIG. 1 es un diagrama esquemático que muestra una configuración global de un sistema de sensor visual que incluye un aparato de procesamiento de imágenes según la presente realización. La FIG. 2 muestra una configuración de una unidad de ajuste de visualización y de un sensor visual según la presente realización. La FIG. 3 muestra esquemáticamente datos intercambiados entre la unidad de ajuste de visualización y el sensor visual según la presente realización.
[0022] Tal y como se muestra en la FIG. 1, en un sistema de sensor visual 1 según la presente realización, un sensor visual 200 y una unidad de ajuste de visualización 201 correspondiente al aparato de procesamiento de imágenes están conectados mediante un cable de transmisión 202 para permitir la comunicación entre los mismos según un protocolo predeterminado. Un cable IO 203 conecta el sensor visual 200 y un PLC (controlador de lógica programable) 400 para que puedan comunicarse entre sí. El PLC 400 lleva a cabo un control global del sistema de sensor visual 1 recibiendo señales procedentes de otros aparatos y transmitiendo señales a los otros aparatos.
[0023] Una pluralidad de sensores visuales 200 puede estar conectada a la unidad de ajuste de visualización 201 a través del cable de transmisión 202 y un concentrador (no mostrado). Un usuario puede controlar el procesamiento de imágenes y el procesamiento de captura de imágenes transmitiendo datos para el procesamiento de imágenes y para el procesamiento de captura de imágenes al sensor visual 200 a través de la unidad de ajuste de visualización 201. La unidad de ajuste de visualización 201 puede recibir resultados de procesamiento de imágenes desde el sensor visual 200 y mostrarlos.
[0024] El sensor visual 200 recibe además un suministro de energía desde una fuente de alimentación externa (no mostrada) a través del cable IO 203.
[0025] El sistema de sensor visual 1 está incorporado en una línea de producción, por ejemplo. El sistema de sensor visual 1 ejecuta un procesamiento tal como un reconocimiento de caracteres y una inspección de imperfecciones (en lo sucesivo, denominada también como "procesamiento de inspección") en función de una imagen obtenida mediante la formación de imágenes de un objeto de inspección (este último denominado como "pieza de trabajo 2").
[0026] El sensor visual 200 incluye una unidad de formación de imágenes 212 y una unidad controladora 213, donde la unidad de formación de imágenes 212 presenta una unidad de iluminación 211 y una lente de formación de imágenes 221. Un microordenador está incorporado en la unidad controladora 213. La envoltura del sensor visual 200 está dotada de una unidad de acoplamiento 214 para acoplar el sensor visual 200 a un elemento de soporte (no mostrado).
[0027] La unidad de ajuste de visualización 201 presenta un panel táctil LCD (pantalla de cristal líquido) 204 que está configurado por una LCD integrada con un panel táctil para recibir una entrada de una instrucción de funcionamiento generada por el contacto de un dedo o un lápiz de propósito especial sobre la pantalla LCD. La unidad de ajuste de visualización 201 recibe datos de imagen capturados por la unidad de formación de imágenes 212 y muestra los datos de imagen en el panel táctil LCD 204, y también recibe una entrada de una instrucción proporcionada por una operación de usuario desde el panel táctil LCD 204 y transmite la instrucción a la unidad controladora 213 del sensor visual 200.
[0028] A continuación se describen los datos de comunicación intercambiados entre el sensor visual 200 y la unidad de ajuste de visualización 201 con referencia a la FIG. 3. Los datos de comunicación incluyen datos que se transmiten desde el sensor visual 200 hasta la unidad de ajuste de visualización 201, concretamente datos de valores actuales 500 que indican los valores actuales de varios tipos de parámetros relacionados con el procesamiento de inspección, datos de resultados de inspección 502 y una imagen de entrada que la unidad de formación de imágenes 212 obtiene capturando una imagen de la pieza de trabajo 2 y que proporciona posteriormente. Los datos de comunicación incluyen además datos transmitidos desde la unidad de ajuste de visualización 201 al sensor visual 200, concretamente datos de valores de ajuste 501 que se han fijado para los diversos parámetros relacionados con el procesamiento de inspección.
[0029] A continuación se describe la configuración del sensor visual 200 y de la unidad de ajuste de visualización 201 con referencia a la FIG. 2. El sensor visual 200 incluye la unidad de iluminación 211, la unidad de formación de imágenes 212 para capturar una imagen de la pieza de trabajo 2, y la unidad controladora 213. La unidad de formación de imágenes 212 presenta la lente de formación de imágenes 221 y una cámara 222.
[0030] La unidad de iluminación 211 incluye un sistema de control de iluminación 223 que presenta una lente de iluminación 224 y un LED (diodo emisor de luz) 225 que sirve como la fuente de luz.
[0031] La unidad controladora 213 incluye una unidad de control de indicador luminoso 227 que controla un indicador luminoso (no mostrado) tal como una lámpara, una CPU 226 para controlar el sensor visual 200, un sistema de suministro de energía 228 para suministrar energía a varias unidades, un sistema de comunicación con dispositivos externos 229 puede conectarse al cable de transmisión 202, un sistema de entrada/salida 230 para recibir y proporcionar datos desde y hacia un dispositivo externo, y una memoria 231 para almacenar varios tipos de datos tales como los datos de valores actuales 500 de los diversos parámetros relacionados con imágenes, resultados de inspección y el procesamiento de imágenes.
[0032] La unidad de ajuste de visualización 201 incluye una unidad de suministro de energía 240 para suministrar energía a varias unidades, una unidad de operaciones 241 tal como un panel táctil sobre el que se lleva a cabo una operación para introducir una instrucción desde el exterior, una LCD 242, una unidad de control LCD 243 que controla a la LCD 242, una unidad de control de imágenes de visualización 244 que controla la visualización de imágenes en la LCD 242 a través de la unidad de control LCD 243, una unidad de almacenamiento de imágenes 245 para almacenar imágenes, una unidad de control de imágenes 246 y una unidad de transmisión 247. La unidad de ajuste de visualización 201 tiene un microordenador para llevar a cabo la funcionalidad de la unidad de control LCD 243, de la unidad de control de imágenes de visualización 244, de la unidad de control de imágenes 246 y similares.
[0033] La unidad de transmisión 247 está conectada al cable de transmisión 202 e incluye un conmutador 248 para llevar a cabo una conmutación de entrada. En la presente realización, una pluralidad de sensores visuales 200 puede estar conectada a la unidad de ajuste de visualización 201 a través del cable de transmisión 202. La unidad de transmisión 247 presenta una pluralidad de puertos de entrada para comunicarse con una pluralidad de sensores visuales 200. El conmutador 248 selecciona uno de los puertos de entrada según un comando procedente del microordenador. Esto permite que la unidad de ajuste de visualización 201 se comunique con el sensor visual 200 que está conectado al puerto de entrada seleccionado.
[0034] La unidad de ajuste de visualización 201 se ha hecho compacta para que pueda llevarse por un usuario que controle una línea de fabricación en un emplazamiento de fabricación o similar y, por lo tanto, el tamaño de pantalla de la LCD 242 también se ha reducido.
[0035] La LCD 242 muestra imágenes en función de una señal de control procedente de la unidad de control LCD 243. En función de una señal de imagen procedente de la unidad de control de imágenes de visualización 244, la unidad de control LCD 243 genera una señal de control para controlar el procesamiento de visualización llevado a cabo por la LCD 242 y proporciona la señal de control a la LCD 242.
[0036] La unidad de operaciones 241 está formada, por ejemplo, por conmutadores previstos en el lado externo de la envoltura de la unidad de ajuste de visualización 201, y por una tableta (no mostrada) que cubre la superficie de la LCD 242. La LCD 242 y la tableta configuran un panel táctil. El usuario introduce varios tipos de instrucciones (o comandos) en la unidad de ajuste de visualización 201 a través de los conmutadores y el panel táctil.
[0037] La unidad de control de imágenes de visualización 244 genera una imagen sintetizada 303 en función de una señal de instrucción 304 procedente de la unidad de operaciones 241, una imagen 306 enviada desde la unidad de control de imágenes 246, una imagen de entrada 300 recibida desde el sensor visual 200 a través de la unidad de transmisión 247, y los datos de valores actuales 500, y proporciona la imagen sintetizada 303 a la unidad de control LCD 243.
[0038] La unidad de control de imágenes de visualización 244 también recibe una entrada de valores en función de la señal de instrucción 304 procedente de la unidad de operaciones 241, y proporciona los valores a la unidad de transmisión 247 como los datos de valores de ajuste 501. Los datos de valores de ajuste 501 se transmiten al sensor visual 200 a través de la unidad de transmisión 247.
[0039] La unidad de control de imágenes 246 almacena la imagen de entrada recibida desde el sensor visual 200 en la unidad de almacenamiento de imágenes 245. La unidad de control de imágenes 246 también lee una imagen almacenada en la unidad de almacenamiento de imágenes 245 y proporciona la imagen leída a la unidad de control de imágenes de visualización 244. Por consiguiente, la unidad de transmisión 247 puede corresponder a un medio de visualización de imágenes destino para mostrar la imagen del objeto destino en la unidad de visualización.
[0040] En la presente realización, una pantalla de ajuste de visualización se muestra en la LCD 242 de la unidad de ajuste de visualización 201 para mostrar los datos de valores actuales 500 relacionados con elementos
del procesamiento de inspección y para permitir que el usuario introduzca los datos de valores de ajuste 501. A continuación se ofrece una descripción detallada de un procedimiento para generar la pantalla de ajuste de visualización.
[0041] La FIG. 4 muestra un ejemplo de la configuración de la unidad de control de imágenes de visualización 244 según la presente realización. Tal y como se muestra en la FIG. 4, la unidad de control de imágenes de visualización 244 incluye una unidad de generación de señales de imágenes de menú 251, una unidad de síntesis 252 y una unidad de almacenamiento 253.
[0042] En la presente realización se supone que la pantalla de ajuste de visualización está formada por una pluralidad de pantallas de ajuste organizadas de manera jerárquica. La unidad de generación de señales de imágenes de menú 251 genera imágenes de menú 302 que se utilizan en las pantallas de ajuste. Las imágenes de menú 302 están formadas por una pluralidad de partes UI (interfaz de usuario), que son imágenes parciales para mostrar información tales como varios tipos de valores de parámetro relacionados con el procesamiento de imágenes para el procesamiento de inspección y para recibir una operación de entrada de usuario. Los valores de parámetro se ajustan para cada elemento de procesamiento de imágenes, y las partes UI incluyen, por ejemplo, iconos y casillas de verificación para seleccionar elementos de procesamiento cuyos valores de parámetro van a ajustarse entre los elementos de procesamiento de imágenes, y cuadros de texto y barras de deslizamiento para la introducción de valores de parámetro. Cuando se designa una parte UI correspondiente a uno de los elementos de procesamiento y se lleva a cabo una operación en la misma, se genera la imagen de menú 302 del siguiente rango en la jerarquía para fijar un valor de parámetro para el elemento de procesamiento correspondiente a la parte UI designada, y se muestra una imagen sintetizada 303 generada utilizando esa imagen de menú 302.
[0043] La unidad de generación de señales de imágenes de menú 251 genera una señal de imagen de menú basándose en información 301 relacionada con el tipo y la ubicación de la parte UI leída de la unidad de almacenamiento 253, la señal de instrucción 304 proporcionada por la unidad de operaciones 241 y los datos de valores actuales 500 leídos de la memoria 231 del sensor visual 200, y proporciona la imagen de menú generada 302 a la unidad de síntesis 252.
[0044] La unidad de síntesis 252 recibe una entrada de las imágenes 300 o 306 enviadas en unidades de cuadro y la imagen de menú 302 proporcionada por la unidad de generación de señales de imágenes de menú. La unidad de síntesis 252 sintetiza la imagen de menú 302 en unidades de cuadro que se superpondrán a las imágenes 300 o 306, y proporciona imágenes sintetizadas 303 que se han sintetizado en unidades de cuadro. La imagen de menú 302 enviada a la unidad de síntesis 252 corresponde a una imagen de entrada recibida desde el sensor visual 200 que se obtuvo formando imágenes de la pieza de trabajo 2, o una imagen capturada de la pieza de trabajo 2 que se leyó de la unidad de almacenamiento de imágenes 245 de la unidad de control de imágenes 246. Debe observarse que la unidad de síntesis 252 proporciona intactas las imágenes 300 o 306 si no se ha enviado la imagen de menú 302. Por consiguiente, en este caso, las imágenes sintetizadas 303 corresponden a las imágenes 300 o
306.
[0045] La unidad de control LCD 243 recibe una entrada de la imagen sintetizada 303 desde la unidad de control de imágenes de visualización 244, genera una señal de control para mostrar la imagen sintetizada 303 y controla la LCD 242 utilizando la señal de control generada. Por consiguiente, la imagen sintetizada 303 se muestra en la pantalla de la LCD 242 mientras se actualiza en unidades de cuadro.
[0046] En este caso, la unidad de generación de señales de imágenes de menú 251 y la unidad de síntesis 252 de la presente realización fijan de manera variable valores de parámetro que indican la transparencia de cada píxel de la imagen de menú 302 cuando se lleva a cabo la síntesis. Los valores de parámetro son, por ejemplo, valores a (alfa) en un procesamiento de mezcla a relacionado con el procesamiento de transparencia de imágenes.
[0047] Un píxel se vuelve opaco si el valor de parámetro se fija al valor máximo, se vuelve transparente si el valor de parámetro se fija a "0" y se vuelve translúcido si el valor de parámetro se fija a un valor intermedio. Puesto que los píxeles de la imagen de menú 302 que va a mostrarse por la LCD 242 están fijados para ser translúcidos, la imagen de menú 302 se muestra superpuesta a la imagen 300 en un estado translúcido. Por consiguiente, el usuario puede comprobar los valores actuales de los diversos parámetros relacionados con el procesamiento de inspección y fijar tales valores mientras comprueba la imagen 300 mostrada debajo de la imagen de menú 302. Por tanto, la unidad de control de imágenes de visualización 244 puede corresponder a un medio de visualización de menú para mostrar una imagen de menú que se solapará con la imagen del objeto destino en un estado translúcido, estando formada la imagen de menú por una pluralidad de partes que son imágenes parciales para mostrar información o para recibir una operación de entrada.
[0048] El sistema de sensor visual 1 de la presente realización tiene varios modos de funcionamiento, incluyendo un modo de ajuste en el que los valores de los diversos parámetros relacionados con el procesamiento de inspección se establecen mediante ajustes, y un modo de funcionamiento en el que las piezas de trabajo 2 de la línea de fabricación se someten a un procesamiento de inspección. Las imágenes (incluyendo imágenes sintetizadas) se muestran mediante la unidad de ajuste de visualización 201 tanto en el modo de ajuste como en el modo de funcionamiento. Aunque a continuación se ofrece una descripción del procesamiento de imágenes en el modo de ajuste, la conmutación de imágenes de menú descrita a continuación puede aplicarse asimismo en el modo de funcionamiento.
[0049] La FIG. 5 muestra un diagrama de flujo de un procesamiento de imágenes llevado a cabo por la unidad de ajuste de visualización 201 en el modo de ajuste según la presente realización. A continuación se describe un procedimiento de procesamiento de imágenes de la presente realización con referencia a la FIG. 5. Debe observarse que la imagen 300 puede sustituirse por la imagen 306 en la siguiente descripción.
[0050] Cuando comienza el modo de ajuste, en la LCD 242 se muestra la imagen sintetizada 303 generada por la imagen de menú 302 de mayor rango en la jerarquía superpuesta sobre la imagen 300 (etapa S3).
[0051] Cuando se muestra la imagen sintetizada 303, el usuario selecciona un elemento cuyo valor de parámetro se fija haciendo funcionar la unidad de operaciones 241 (etapa S7). La unidad de generación de señales de imágenes de menú 251 recibe una entrada de la señal de instrucción 304 correspondiente al elemento seleccionado (etapa S9), y genera y proporciona la imagen de menú 302 del siguiente rango según la señal de instrucción recibida 304 (etapa S11). La unidad de síntesis 252 genera la imagen sintetizada 303 superponiendo la imagen de menú 302 del siguiente rango sobre la imagen 300, y proporciona la imagen sintetizada 303 (etapa S12). Por consiguiente, la LCD 242 muestra la imagen sintetizada 303 según una señal de control generada por la unidad de control LCD 243 (etapa S13).
[0052] El usuario introduce un valor de ajuste para cualquiera de los diversos parámetros haciendo funcionar la unidad de operaciones 241 utilizando una parte UI de la imagen sintetizada 303.
[0053] La señal de instrucción 304 relacionada con el valor de ajuste que se introdujo se envía a la unidad de generación de señales de imágenes de menú 251 y, después, la unidad de generación de señales de imágenes de menú 251 genera y proporciona una imagen de menú 302 según la señal de instrucción 304. Por consiguiente, la imagen sintetizada 303 en la LCD 242 se actualiza como una imagen sintetizada 303 en la que un valor, dato o similar se muestra en la parte UI en función de la señal de instrucción 304, mostrándose la imagen sintetizada actualizada 303 (etapa S15). Debe observarse que el valor de ajuste que se introdujo y se determinó se almacena como los datos de valores de ajuste 501 en un área de memoria (no mostrada) asociada a la unidad de generación de señales de imágenes de menú 251.
[0054] La unidad de generación de señales de imágenes de menú 251 determina si la señal de instrucción 304 que ordena una conmutación entre una imagen de menú 302 (primera imagen de menú) que ocupa una gran área en la imagen sintetizada 303 y una imagen de menú 302 (segunda imagen de menú) que ocupa un área pequeña en la imagen sintetizada 303 se ha enviado a través de la unidad de operaciones 241 (etapa S17). Por consiguiente, la unidad de generación de señales de imágenes de menú 251 puede corresponder a un medio de conmutación de visualización para conmutar, según una función de conmutación procedente del exterior, la imagen de menú mostrada en la unidad de visualización entre una primera imagen de menú de un primer tamaño y una segunda imagen de menú de un segundo tamaño que es diferente al primer tamaño. Esta conmutación de la imagen de menú 302 se describirá posteriormente.
[0055] Si se determina que la señal de instrucción 304 para conmutar la imagen de menú 302 no se ha enviado (NO en la etapa S17), el procesamiento avanza hasta la etapa S21 descrita posteriormente, y si sedetermina que la señal de instrucción 304 se ha enviado (SÍ en la etapa S17), se lleva a cabo un procesamiento de conmutación de visualización (etapa S19).
[0056] Cada vez que se envíe la señal de instrucción 304 para la conmutación, la unidad de generación de señales de imágenes de menú 251 se hace funcionar para almacenar la señal de instrucción 304. Por consiguiente, en el procesamiento de conmutación de visualización es posible determinar, en función de la señal de instrucción almacenada 304, si el área ocupada de la imagen de menú 302 actualmente sintetizada en la imagen sintetizada 303 es grande o pequeña, es decir, si se muestra la primera o la segunda imagen de menú.
[0057] Utilizando la unidad de operaciones 241, el usuario lleva a cabo una operación de finalización de ajuste si el usuario desea finalizar el ajuste del valor de parámetro utilizando la parte UI de la imagen de menú mostrada 302, o el usuario lleva a cabo una operación para seleccionar un elemento de la imagen de menú 302. La señal de instrucción 304 que indica el contenido de operación se proporciona a la unidad de generación de señales de imágenes de menú 251.
[0058] Si la unidad de generación de señales de imágenes de menú 251 determina que el ajuste va a finalizarbasándose en la señal de instrucción 304 (SÍ en la etapa S21), la unidad de generación de señales de imágenes de menú 251 lee y proporciona los datos de valores de ajuste 501 desde el área de memoria. Por consiguiente, los datos de valores de ajuste 501 se transmiten al sensor visual 200 a través de la unidad de transmisión 247 (etapa S25). La CPU 226 del sensor visual 200 almacena los datos de valores de ajuste recibidos 501 en la memoria 231 como los datos de valores actuales 500. Después, en el procesamiento de inspección que utiliza una imagen capturada obtenida por la unidad de formación de imágenes 212, el procesamiento se lleva a cabo utilizando los datos de valores actuales 500 que se leyeron de la memoria 231.
[0059] Si la unidad de generación de señales de imágenes de menú 251 determina que se ha seleccionado un elemento basándose en la señal de instrucción 304 (NO en la etapa S21 y, además, SÍ en la etapa S23), el procesamiento vuelve a la etapa S9 y se lleva a cabo un procesamiento posterior de manera similar para el elemento seleccionado.
[0060] Si la unidad de generación de señales de imágenes de menú 251 determina, en función de la señal de instrucción 304, que no se ha ordenado la finalización del ajuste y, además, no se ha seleccionado ningún elemento (NO en la etapa S21 y NO en la etapa S23), el procesamiento vuelve a la etapa S15, y el procesamiento para introducir un valor de ajuste en la imagen de menú 302 mostrada actualmente continúa.
[0061] A continuación se describen ejemplos de la imagen mostrada en la LCD 242 según el procedimiento de procesamiento descrito anteriormente mostrado en la FIG. 5, con referencia a las FIG. 6 a 12. En estos dibujos, se supone que la imagen de menú 302 se muestra sintetizada con la imagen 300, la cual es una imagen ampliada de la superficie (caracteres) de la pieza de trabajo 2.
[0062] Las FIG. 6A y 6B muestran pantallas de ajuste para fijar un valor umbral para una buena/mala determinación en el procesamiento de inspección. La imagen 300 se muestra en toda la pantalla de la LCD 242, y un cuadro de área de inspección 402 que indica el intervalo de inspección se fija por defecto a toda la imagen 300. Además, un cuadro de área modelo 401 introducido por el usuario haciendo funcionar la unidad de operaciones 241 se muestra como un gráfico en la imagen 300. El cuadro de área modelo 401 indica el área de una imagen parcial que va a servir como una referencia (modelo) para el procesamiento de inspección. Por consiguiente, la unidad de operaciones 241 puede constituir, o ser parte de, un medio de selección de imagen para seleccionar, según una operación de selección, toda o parte de la imagen del objeto destino mostrado en la unidad de visualización.
[0063] La imagen de menú 302 mostrada en la FIG. 6A está formada por partes UI tales como unidades de visualización de información de cadena de caracteres 601 y 602, botones comunes 701 a 703, un botón de determinación 704 y un botón de cancelación 705. La unidad de visualización de información de cadena de caracteres 601 siempre está dispuesta en la parte superior de la pantalla y muestra información tal como el contenido de los elementos de ajuste y la pantalla de ajuste que está mostrándose, valores de ajuste e información de ayuda al usuario. Los botones comunes 701 a 703 están siempre dispuestos en la parte inferior de la pantalla y se muestran para proporcionar funciones comunes a cada una de las imágenes de menú 302. Puesto que las partes UI que constituyen la imagen de menú 302 son imágenes transparentes, el menú puede hacerse funcionar mientras se comprueba la imagen 300.
[0064] El botón común 701 es un ejemplo de un icono y se hace funcionar para introducir una instrucción para conmutar la imagen de menú 302. El botón común 701 se muestra fijo en una posición predeterminada (el botón izquierdo de la pantalla en la presente realización) en todas las pantallas que se muestran mediante conmutación y, por lo tanto, el usuario no perderá de vista al botón común 701 incluso si se cambia de pantalla.
[0065] El botón común 702 se hace funcionar para cambiar el modo en que se muestra la imagen 300 (por ejemplo, ampliada o reducida). El botón común 703 se hace funcionar para ejecutar una captura de pantalla. El botón de determinación 704 y el botón de cancelación 705 se muestran en la parte inferior de la pantalla y se hacen funcionar para determinar/cancelar datos de valores de ajuste 501 que se introdujeron a través de la imagen de menú 302. Si se lleva a cabo la operación de determinación, los valores de ajuste que se introdujeron a través de la imagen de menú 302 se determinan y se almacenan como los datos de valores de ajuste 501 en el área de memoria asociada a la unidad de generación de señales de imágenes de menú 251, y la pantalla de ajuste cambia a una pantalla de rango superior. Por otro lado, si se lleva a cabo la operación de cancelación se cancelan los valores de ajuste que se introdujeron a través de la imagen de menú 302, y la pantalla de ajuste cambia a una pantalla de rango superior.
[0066] En el estado de visualización de la FIG. 6A, si se hace funcionar el botón común 701, las partes UI y similares de la imagen de menú 302 se ocultan salvo el botón común 701 (véase la FIG. 6B). En este instante, el cuadro de área modelo 401 y el cuadro de área de inspección 402 siguen mostrándose. Si se hace funcionar el botón común 701 de la FIG. 6B, las partes UI originales de la imagen de menú 302 se muestran de nuevo
superpuestas a la imagen 300 (véase la FIG. 6A).
[0067] Debe observarse que las partes UI 602 a 605 de la FIG. 6A son unidades de visualización para mostrar valores umbral (valores de correlación con respecto a un modelo y una imagen capturada, y el tipo de determinación) indicados por los datos de valores actuales 500 para llevar a cabo un procesamiento de inspección utilizando la imagen parcial (modelo) dentro del cuadro de área modelo 401, y barras de deslizamiento y cuadros de texto para la entrada numérica de valores umbral que se hacen funcionar a través de la unidad de operaciones 241 para fijar el valor de correlación.
[0068] En la presente realización, el botón común 701 se muestra en la imagen sintetizada 303, y la imagen de menú 302 puede conmutarse haciendo funcionar el botón común 701, lo cual se aplica a todas las imágenes sintetizadas 303.
[0069] Tal y como se ha descrito anteriormente, conmutar la imagen de menú 302 permite modificar el número de partes UI de la imagen de menú 302 superpuesta a la imagen 300, es decir, permite modificar la cantidad de área ocupada por la imagen de menú 302 superpuesta a la imagen 300. Por consiguiente, conmutando a una imagen de menú 302 que ocupa una menor área, el usuario puede comprobar más fácilmente toda el área de la imagen 300 y realizar designaciones.
[0070] Además, es posible una configuración en la que ampliando/reduciendo las partes UI de la imagen de menú mostrada 302 haciendo funcionar el botón común 701, se cambie el tamaño del área ocupada por la imagen de menú 302 superpuesta a la imagen 300 manteniendo al mismo tiempo el mismo número de partes UI mostradas.
[0071] Debe observarse que la unidad de funcionamiento para ordenar la conmutación de la imagen de menú 302 no está limitada a ser el botón común 701 mostrado. Un conmutador de funcionamiento previsto en la envoltura de la unidad de ajuste de visualización 201, o similar, puede utilizarse en lugar del botón común 701. En este caso, la visualización y la no visualización de la imagen de menú 302 superpuesta a la imagen 300 conmuta junto con el manejo del conmutador de funcionamiento.
[0072] Además, es posible una configuración en la que, cuando la imagen de menú 302 ha conmutado para ocupar un área pequeña, la transparencia del botón común 701 aumenta, o la posición del botón común 701 puede cambiar mediante una operación denominada como "arrastrar y soltar". Además, es posible una configuración en la que no se muestra el botón común 701, y la conmutación a la pantalla en la que se muestra la imagen de menú 302 se lleva a cabo tocando dos veces suavemente el panel táctil formado por la LCD 242 y la tableta. Esto permite al usuario comprobar toda la región de la imagen sintetizada 303 y realizar designaciones sin ser importunado por el botón común 701.
[0073] A continuación se describe la edición del cuadro de área modelo 401 con referencia a las FIG. 7A y 7B. La FIG. 7A muestra un botón común 706 que se hace funcionar para mostrar varios tipos de botones de selección de elemento de ajuste para la edición del área modelo. Posteriormente se describirán ejemplos específicos de los botones de selección mostrados cuando se ha hecho funcionar el botón común 706.
[0074] En caso de llevar a cabo una edición tal como cambiar el tamaño o la posición del cuadro de área modelo 401, la edición puede llevarse a cabo más fácilmente si se muestra toda la imagen 300. Por este motivo, cancelando la visualización de las partes UI de la imagen de menú 302 (obsérvese que el botón común 701 permanece mostrado) haciendo funcionar el botón común 701 (véase la FIG. 7B), es más fácil editar el cuadro de área modelo 401.
[0075] De esta manera, en caso de seleccionar parte o toda la imagen mostrada 300 como un área para el procesamiento de inspección (el área modelo o similar), puede comprobarse toda la imagen 300 ocultando las partes UI de la imagen de menú 302 haciendo funcionar el botón común 701, facilitando de este modo la selección de un área. Además, puesto que la imagen de menú 302 se muestra superpuesta a la imagen 300 en un estado translúcido, una parte de la imagen 300 solapada con las partes UI de la imagen de menú 302 también puede seleccionarse como el cuadro de área modelo 401.
[0076] Las FIG. 8A y 8B muestran ejemplos de pantallas de visualización para fijar valores de parámetro relacionados con la extracción de color en el procesamiento de imágenes. En el caso de la extracción de color, la imagen de menú 302 mostrada de manera superpuesta a la imagen 300 incluye partes UI 606 a 611 para seleccionar el color de un área que va a extraerse de la imagen 300. También se muestra un botón común 707 que se hace funcionar para ordenar la finalización del ajuste de los valores de parámetro relacionados con la extracción de color.
[0077] La parte UI 606 muestra casillas de verificación para seleccionar los colores que van a extraerse. La
parte UI 608 indica una paleta de colores para la sección de colores. La paleta de colores para la sección de colores está dotada de las partes UI 610 que pueden deslizarse en la dirección horizontal de la pantalla y de las partes UI 611 que pueden deslizarse en la dirección vertical de la pantalla. El deslizamiento de la partes UI 610 permite fijar el grado de matiz, y el deslizamiento de las partes UI 611 permite fijar el grado de saturación. Además, el funcionamiento de las partes UI 609 (elementos deslizantes) previstos en la parte UI 607 (barra de deslizamiento) permite fijar el valor del color.
[0078] La unidad de visualización de información de cadena de caracteres 601 mostrada en la parte superior de la pantalla muestra valores (H: matiz: S: saturación y V: valor) que se establecen deslizando las partes UI descritas anteriormente, y estos valores cambian junto con el deslizamiento.
[0079] Si los valores de parámetro para la extracción de color se fijan mediante las partes UI de la imagen de menú 302, los valores fijados se leen por la unidad de control de imágenes de visualización 244 como valores de ajuste UI. La unidad de control de imágenes 244 extrae áreas que incluyen los colores designados indicados por los valores de ajuste UI 305 de la imagen 300, y genera una imagen 306 en la que sólo permanecen las partes de área de color extraídas. La imagen generada 306 se envía a la unidad de síntesis 252 en lugar de la imagen 300.
[0080] Por consiguiente, puesto que la imagen de menú 302 se muestra superpuesta a la imagen 306 obtenida utilizando los valores de parámetro fijados a través de las partes UI, el usuario puede fijar valores de parámetro así como comprobar el resultado del procesamiento de imagen llevado a cabo utilizando los valores de parámetro fijados.
[0081] En este instante, cancelando la visualización de las partes UI de la imagen de menú 302 (obsérvese que el botón común 701 permanece mostrado) haciendo funcionar el botón común 701 (véase la FIG. 8B), puede comprobarse toda la imagen 306 resultante del procesamiento de imagen.
[0082] Las FIG. 9 a 12 muestran otras pantallas visualizadas en el modo de ajuste. Puesto que el botón común 701 también se muestra en estas pantallas, la imagen de menú 302 puede conmutarse fácilmente entre ocupando un gran área y ocupando un área pequeña.
[0083] La FIG. 9A muestra una imagen de menú de alto rango 302 en el modo de ajuste. En la FIG. 9A, una parte UI 612 en el extremo izquierdo de la imagen de menú 302 muestra un menú de elementos que muestra funciones de la unidad de ajuste de visualización 201. En la FIG. 9A, si se ha seleccionado "formación de imágenes" en el menú de elementos de funcionamiento, botones de selección para el “ajuste de cámara”, el “ajuste de activación” y la “corrección de alineación”, que son elementos de ajuste para la formación de imágenes, se muestran en el lado derecho de la pantalla en el orden en que debe llevarse a cabo el ajuste.
[0084] La FIG. 9B muestra un ejemplo de una visualización en caso de haber seleccionado “Inspección” en el menú de elementos de funcionamiento de la parte UI 612, donde se muestra una lista de funciones utilizadas para la inspección en el lado derecho de la pantalla en un formato de menú.
[0085] Si se ha seleccionado “Ajuste de cámara” en el menú de elementos de ajuste mostrado en el lado derecho de la pantalla en la FIG. 9A, se visualiza la imagen de menú 302 mostrada en la FIG. 10A. Una parte UI 614 de la FIG. 10A es para mostrar un número que indica el valor de foco en la imagen 300 (en la FIG. 10A, el valor 85) y un gráfico de barras correspondiente. El valor de foco muestra el grado en que el punto focal de la unidad de formación de imágenes 212 coincide con el objeto del que se están formando imágenes, tal como una pieza de trabajo, y el valor de foco cambia en función de las operaciones de ajuste de foco llevadas a cabo por el sensor visual 200. Debe observarse que puesto que el valor de foco está relacionado con la cantidad de bordes que aparecen en la imagen de entrada, el valor de foco puede calcularse en función de, por ejemplo, la desviación de color incluida en la imagen de entrada.
[0086] La FIG. 10B muestra un ejemplo de la imagen de menú 302 mostrada si se selecciona “Corrección de alineación” en el menú de funciones subordinado mostrado en la FIG. 9A. En la FIG. 10B, la unidad de visualización de información de cadena de caracteres 601 muestra si se ha seleccionado el procesamiento para corregir la alineación de la unidad de formación de imágenes 212 y el hecho de que se trata del ajuste de corrección de alineación.
[0087] Si en la FIG. 10B se ha seleccionado "Ajuste de corrección de alineación", se visualiza la imagen de menú 302 mostrada en la FIG. 10C. En la FIG. 10C se muestra una parte UI 709 para seleccionar la ejecución de un procesamiento de aprendizaje para la corrección de alineación. Durante el procesamiento de aprendizaje se lleva a cabo un procesamiento para registrar el cuadro de área modelo 401 y el cuadro de área de inspección 402 que se han establecido (es decir, el procesamiento de almacenamiento en un área de almacenamiento predeterminada de la unidad de ajuste de visualización 201, o un procesamiento de transmisión al sensor visual 200 y de
almacenamiento en un área de almacenamiento predeterminada).
[0088] Si se hace funcionar el botón común 706 de la FIG. 10C, se visualiza un botón de selección de elemento de ajuste 7061 como se muestra en la FIG. 11A. En este caso, si se selecciona “Editar área modelo”, se visualiza la imagen de menú 302 mostrada en la FIG. 11B y puede fijarse el área de modelo que va a utilizarse en el procesamiento de corrección de alineación. Los cuadros de área modelo 401 y 405 se han fijado en la FIG. 11B. La posición y el tamaño del área de modelo fijada se detectan y se muestran en la unidad de visualización de información de cadena de caracteres 601. Además, la posición y el tamaño del cuadro de área modelo 401 y 405 en la imagen 300 pueden modificarse haciendo funcionar la parte UI 613.
[0089] La FIG. 12 muestra un ejemplo de la imagen de menú 302 mostrada si se selecciona “Posición de bordes" en el menú de funciones mostrado en la FIG. 9B.
[0090] En la pantalla mostrada en la FIG. 12 se fija un nivel de borde de imagen. En la FIG. 12 se muestran partes UI 614 y 615 para fijar el nivel según el cual los bordes se extraen de la imagen 300, así como un gráfico de bordes 403. En el gráfico de bordes 403 se detecta el nivel de borde en el cuadro de área de inspección 402, la posición de la imagen 300 se traza en el eje horizontal del gráfico y el nivel de borde se traza en el eje vertical.
[0091] El gráfico de bordes 403 se genera por la unidad de control de imágenes 246 llevando a cabo una detección de bordes basada en el nivel de componente de brillo de cada píxel en la imagen 300. El gráfico de bordes generado 403 se muestra superpuesto a la imagen 300.
[0092] La parte UI 615 (elemento deslizante) se muestra en asociación con el gráfico de bordes 403. Haciendo funcionar el elemento deslizante, el usuario puede determinar un valor umbral de nivel de borde deseado haciendo referencia al mismo tiempo al gráfico de bordes 403. Debe observarse que la posición de borde detectada se muestra mediante una marca transversal 404.
[0093] Mientras se lleva a cabo la operación de deslizamiento, el valor umbral fijado se muestra de manera numérica en el cuadro de entrada de valores numéricos de la parte UI 614 mientras se actualiza secuencialmente junto con la operación de deslizamiento.
[0094] En las pantallas descritas anteriormente de las FIG. 9 a 12, se muestra toda la imagen 300 sometida a procesamiento y la imagen de menú 302 que incluye partes UI translúcidas se muestra superpuesta a la imagen 300, y en una pantalla de este tipo, la conmutación de las partes UI de la imagen de menú 302 puede llevarse a cabo haciendo funcionar el botón común 701.
[0095] La FIG. 13 muestra un ejemplo de cómo está acoplado el sensor visual 200. La FIG. 14 muestra un estado en el que sensores visuales 200 están acoplados respectivamente a líneas de transporte de cintas transportadoras o similares, que son una pluralidad de mecanismos de transporte 6 (la flecha en la figura indica la dirección de transporte), vistos desde arriba de las líneas de transporte. En la FIG. 13, el sensor visual 200 correspondiente a cada línea está acoplado a un elemento de soporte (no mostrado) a través de la unidad de acoplamiento 214 de manera que el alcance de formación de imágenes de la cámara 222 está alineado con la línea de transporte. Cuando se lleva a cabo la formación de imágenes se irradia luz de iluminación hacia la línea de transporte del mecanismo de transporte 6, garantizando de este modo la iluminación en el alcance de la formación de imágenes. Los sensores visuales 200 previstos para las líneas de transporte intercambian entre sí información de resultado de procesamiento de inspección, información para el procesamiento de inspección incluyendo los datos de valores actuales 500, y similares, a través del cable de transmisión 202.
Otras realizaciones
[0096] Aunque la función de formación de imágenes y la función de procesamiento de imágenes para el procesamiento de inspección están incorporadas en el sensor visual 200 de la realización descrita anteriormente, estas funciones pueden proporcionarse por separado y de manera independiente tal y como se muestra en la presente realización.
[0097] Tal y como se muestra en la FIG. 15, en un sistema de sensor visual 1 según otra realización incorporada en una línea de producción/fabricación FA o similar, las piezas de trabajo 2 que son objetos que van a someterse a una medición se transportan en la dirección de la flecha de la FIG. 15 mediante un mecanismo de transporte 6 tal como una cinta transportadora, y un aparato de formación de imágenes 8 forma imágenes sucesivamente de las piezas de trabajo 2 con el fin de llevar a cabo un procesamiento de inspección en las piezas de trabajo 2. Los datos de imagen obtenidos por el aparato de formación de imágenes 8 (en lo sucesivo, denominados también como “imágenes de entrada”) se transmiten a un aparato de procesamiento de imágenes 100. Debe observarse que es posible proporcionar además un mecanismo de iluminación que emita luz sobre las piezas
de trabajo 2 de las que se forman imágenes mediante el aparato de formación de imágenes 8.
[0098] Un sensor fotoeléctrico 4 formado por dos partes dispuestas en lados respectivos del mecanismo de transporte 6 detecta el hecho de que una pieza de trabajo 2 ha llegado al alcance de formación de imágenes del aparato de formación de imágenes 8. Específicamente, el sensor fotoeléctrico 4 incluye una unidad de fotorecepción 4a y una unidad de fotoemisión 4b dispuestas en el mismo eje óptico. La unidad de fotorecepción 4a detecta el hecho de que la luz emitida desde la unidad de fotoemisión 4b está bloqueada por la pieza de trabajo 2, detectando por tanto la llegada de la pieza de trabajo 2. Una señal de detección (en lo sucesivo denominada además como una "señal de activación") del sensor fotoeléctrico 4 proporciona a un PLC 5.
[0099] El PLC 5 recibe la señal de activación procedente del sensor fotoeléctrico 4 o similar, y procede a controlar el mecanismo de transporte 6.
[0100] El sistema sensor visual 1 de la FIG. 15 incluye además el aparato de procesamiento de imágenes 100, un dispositivo de visualización 102 y un teclado 104. El aparato de procesamiento de imágenes 100 está conectado al PLC 5, al aparato de formación de imágenes 8, al dispositivo de visualización 102 y al teclado 104.
[0101] El aparato de procesamiento de imágenes 100 tiene varios tipos de modos de funcionamiento, concretamente un modo de funcionamiento para ejecutar un procesamiento de inspección en las piezas de trabajo 2, y el modo de ajuste descrito anteriormente. En el modo de funcionamiento, el aparato de procesamiento de imágenes 100 proporciona un comando de formación de imágenes al aparato de formación de imágenes 8 tras recibir la señal de activación desde el sensor fotoeléctrico 4 a través del PLC 5. En respuesta al comando de formación de imágenes, el aparato de formación de imágenes 8 transmite al aparato de procesamiento de imágenes 100 una imagen de entrada obtenida capturando una imagen de la pieza trabajo 2. Como un procedimiento de procesamiento alternativo, es posible una configuración en la que se haga que el aparato de formación de imágenes 8 forme imágenes continuamente, y el aparato de procesamiento de imágenes 100 solo obtiene imágenes de entrada necesarias en respuesta a la recepción de la señal de activación.
[0102] El aparato de formación de imágenes 8 está configurado, por ejemplo, por un sistema óptico tal como una lente, y un elemento de formación de imágenes dividido en una pluralidad de píxel, tal como un CCD (dispositivo de carga acoplada) o un sensor CMOS (semiconductor complementario de óxido de metal). Se supone que el aparato de formación de imágenes 8 está acoplado de tal manera que su ubicación de instalación, que determina el alcance de formación de imágenes, puede modificarse manualmente.
[0103] El aparato de procesamiento de imágenes 100 es un ordenador que presenta una arquitectura de propósito general y proporciona varios tipos de funciones ejecutando un programa preinstalado.
[0104] La FIG. 16 es un diagrama de configuración esquemático que muestra el aparato de procesamiento de imágenes 100 según esta otra realización de la presente invención. Como se muestra en la FIG. 16, el aparato de procesamiento de imágenes 100 incluye una CPU 110, que es una unidad de procesamiento aritmética, una memoria 112 y un disco duro 114, que son unidades de almacenamiento, una interfaz de cámara 116, una interfaz de entrada 118, un controlador de visualización 120, una interfaz PLC 122, una interfaz de comunicaciones 124 y un dispositivo de lectura/escritura de datos 126. Estas unidades están conectadas a través de un bus 128, de manera que pueden intercambiarse datos entre las mismas.
[0105] La CPU 110 lleva a cabo varios tipos de cálculos para el procesamiento en el modo de funcionamiento y el modo de ajuste descrito anteriormente cargando en la memoria 112 programas (código) almacenados en el disco duro 114 y ejecutando los programas en una secuencia predeterminada.
[0106] La interfaz de cámara 116 se encarga de la transmisión de datos entre la CPU 110 y el aparato de formación de imágenes 8. Más específicamente, la interfaz de cámara 116 incluye una memoria intermedia de imágenes 116a que puede conectarse a uno o más aparatos de formación de imágenes 8 y que sirve para acumular temporalmente datos de imágenes procedentes de los aparatos de formación de imágenes 8. Cuando se ha acumulado al menos un cuadro de datos de imágenes de entrada en la memoria intermedia de imágenes 116a, la interfaz de cámara 116 transfiere los datos acumulados a la memoria 112.
[0107] La memoria 112 almacena datos de imágenes en unidades de archivos de imágenes. En caso de llevar a cabo un procesamiento en una imagen de entrada, la CPU 110 lee un archivo de imagen de la memoria 112.
[0108] La interfaz de cámara 116 proporciona un comando de formación de imágenes al aparato de formación de imágenes 8 según un comando interno emitido por la CPU 110.
[0109] La interfaz de entrada 118 se encarga de la transmisión de datos entre la CPU 110 y aparatos de entrada tales como el teclado 104, un ratón 103 y un panel táctil (no mostrado). Específicamente, la interfaz de entrada 118 recibe un comando de funcionamiento proporcionado por el usuario que hace funcionar un aparato de entrada.
[0110] El controlador de visualización 120 está conectado al dispositivo de visualización 102, que es un ejemplo típico de un aparato de visualización, y notifica al usuario, por ejemplo, resultados del procesamiento de imágenes llevado a cabo por la CPU 110.
[0111] La interfaz PLC 122 se encarga de la transmisión de datos entre la CPU 110 y el PLC 5. Más específicamente, la interfaz PLC 122 transmite, a la CPU 110, información relacionada con el estado de la línea de producción controlada por el PLC 5, información relacionada con la pieza de trabajo y similar.
[0112] La interfaz de comunicaciones 124 se encarga de la transmisión de datos entre la CPU 110 y otro ordenador personal, aparato servidor o similar, los cuales no se muestran. La interfaz de comunicaciones 124 es normalmente una interfaz Ethernet (marca registrada), una interfaz USB (bus serie universal), o similar. Como se describirá a continuación, debe observarse que como una alternativa a la realización en la que un programa almacenado en la tarjeta de memoria 106 se instala en el aparato de procesamiento de imágenes 100, es posible una realización en la que un programa descargado desde un servidor de distribución (no mostrado) o similar, a través de la interfaz de comunicaciones 124, se instala en el aparato de procesamiento de imágenes 100.
[0113] El dispositivo de lectura/escritura de datos 126 se encarga de la transmisión de datos entre la CPU 110 y la tarjeta de memoria 106, que es un medio de almacenamiento.
[0114] En el sistema de sensor visual 1 mostrado en las FIG. 15 y 16, el dispositivo de visualización 102 corresponde a la LCD 242 de la FIG. 2, y las funciones descritas anteriormente de la unidad de ajuste de visualización 201 en el modo de ajuste se ejecutan en función del control llevado a cabo por la CPU 110 del aparato de procesamiento de imágenes 100. Por consiguiente, incluso con la configuración mostrada en las FIG. 15 y 16, pueden fijarse valores de parámetro para el procesamiento de inspección cuando la imagen de menú 302 se muestra superpuesta a la imagen objeto de procesamiento 300 en un estado translúcido, y la imagen de menú 302 puede conmutarse haciendo funcionar el botón común 701. Esto permite obtener una operatividad favorable con respecto al ajuste de los valores de parámetro mientras se comprueba la imagen 300.
[0115] Las realizaciones desveladas en esta solicitud deben considerarse en todos los aspectos como ilustrativas y no como limitativas. El alcance de la invención se indica por las reivindicaciones adjuntas en lugar de por la anterior descripción, y todas las modificaciones que estén dentro del significado y rango de equivalencia de las reivindicaciones están incluidas en las mismas.
ÍNDICE DE LOS NÚMEROS DE REFERENCIA
[0116] 1 ... sistema de sensor visual, 2 … pieza de trabajo, 8 … aparato de formación de imágenes, 100 ... aparato de procesamiento de imágenes, 102 ... dispositivo de visualización, 200 ... sensor visual, 201 ... unidad de ajuste de visualización, 202 ... cable de transmisión, 251 ... unidad de generación de señales de imágenes de menú, 252 ... unidad de síntesis.

Claims (7)

  1. REIVINDICACIONES
    1. Un aparato de procesamiento de imágenes (100) para procesar una imagen de un objeto destino (2) mientras se muestra la imagen del objeto destino (2) en una unidad de visualización (102 ) para la inspección del objeto destino (2), comprendiendo el aparato de procesamiento de imágenes (100):
    un medio de visualización de imágenes destino (247) para mostrar la imagen del objeto destino (2) en la unidad de visualización (102);
    un medio de selección de imagen (241) para seleccionar, según una operación de selección, toda o parte de la imagen del objeto destino (2) mostrado en la unidad de visualización (102); y
    un medio de visualización de menú (244) para mostrar una imagen de menú que se solapará con la imagen del objeto destino (2) en un estado translúcido, estando formada la imagen de menú por una pluralidad de partes que son imágenes parciales para mostrar información o para recibir una operación de entrada,
    en el que el medio de visualización de menú (244) incluye un medio de conmutación de visualización (251) para conmutar, según una instrucción de conmutación procedente del exterior, la imagen de menú mostrada en la unidad de visualización (102) entre una primera imagen de menú de un primer tamaño y una segunda imagen de menú de un segundo tamaño que es diferente al primer tamaño.
  2. 2.
    El aparato de procesamiento de imágenes (100) según la reivindicación 1, en el que el número de partes de la primera imagen de menú es diferente al número de partes de la segunda imagen de menú.
  3. 3.
    El aparato de procesamiento de imágenes (100) según la reivindicación 2, en el que según la instrucción de conmutación, el medio de conmutación de visualización (251) conmuta entre la visualización y la no visualización de todas las partes de la imagen de menú en la unidad de visualización (102).
  4. 4.
    El aparato de procesamiento de imágenes (100) según la reivindicación 2, en el que según la instrucción de conmutación, el medio de conmutación de visualización (251) conmuta entre la visualización y la no visualización de toda la imagen de menú en la unidad de visualización (102).
  5. 5.
    El aparato de procesamiento de imágenes (100) según cualquiera de las reivindicaciones 1 a 4, que comprende además:
    una unidad de instrucciones que se hace funcionar para proporcionar la instrucción de conmutación,
    en el que la unidad de instrucciones se muestra de manera fija en una posición predeterminada en una pantalla de la unidad de visualización (102).
  6. 6.
    El aparato de procesamiento de imágenes (100) según cualquiera de las reivindicaciones 1 a 5, en el que el medio de selección de imagen (241) puede seleccionar una parte de la imagen del objeto destino (2) que está solapada con cualquiera de la pluralidad de partes.
  7. 7.
    El aparato de procesamiento de imágenes (100) según cualquiera de las reivindicaciones 1 a 6, en el que la unidad de visualización (102) y el aparato de procesamiento de imágenes están configurados de manera solidaria para ser portátiles.
ES11161502T 2010-04-07 2011-04-07 Aparato de procesamiento de imágenes Active ES2396215T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010088859A JP5411049B2 (ja) 2010-04-07 2010-04-07 画像処理装置
JP2010088859 2010-04-07

Publications (1)

Publication Number Publication Date
ES2396215T3 true ES2396215T3 (es) 2013-02-20

Family

ID=44201942

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11161502T Active ES2396215T3 (es) 2010-04-07 2011-04-07 Aparato de procesamiento de imágenes

Country Status (5)

Country Link
US (2) US20110249025A1 (es)
EP (1) EP2375381B1 (es)
JP (1) JP5411049B2 (es)
CN (2) CN104202517A (es)
ES (1) ES2396215T3 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130055675A (ko) 2010-09-08 2013-05-28 코비디엔 엘피 영상 조립체를 갖는 카테터
USD716841S1 (en) 2012-09-07 2014-11-04 Covidien Lp Display screen with annotate file icon
US9517184B2 (en) 2012-09-07 2016-12-13 Covidien Lp Feeding tube with insufflation device and related methods therefor
USD735343S1 (en) 2012-09-07 2015-07-28 Covidien Lp Console
US9198835B2 (en) 2012-09-07 2015-12-01 Covidien Lp Catheter with imaging assembly with placement aid and related methods therefor
USD717340S1 (en) 2012-09-07 2014-11-11 Covidien Lp Display screen with enteral feeding icon
JP6267418B2 (ja) * 2012-09-25 2018-01-24 任天堂株式会社 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP6298270B2 (ja) * 2013-10-23 2018-03-20 株式会社キーエンス 光電センサ
CN103927774A (zh) * 2014-04-28 2014-07-16 宇龙计算机通信科技(深圳)有限公司 一种可控图片生成处理方法及系统
KR102607564B1 (ko) * 2016-09-13 2023-11-30 삼성전자주식회사 소프트 키를 표시하는 방법 및 그 전자 장치
JP6834843B2 (ja) * 2017-08-10 2021-02-24 オムロン株式会社 画像処理システム、設定支援装置および設定支援プログラム
JP6495989B1 (ja) * 2017-10-02 2019-04-03 株式会社アマダホールディングス プログラム作成装置、溶接システム、及びプログラム作成方法
CN109618210B (zh) * 2018-11-08 2022-03-15 北京微播视界科技有限公司 视频画面调整方法、装置、计算机设备和可读存储介质
JP7315371B2 (ja) * 2019-05-07 2023-07-26 シャープ株式会社 表示制御装置、それを備えた画像形成装置および表示制御方法
CN112825040B (zh) * 2019-11-21 2024-01-30 腾讯科技(深圳)有限公司 用户界面的显示方法、装置、设备及存储介质
CN111192377B (zh) * 2020-01-08 2021-08-27 中国银联股份有限公司 一种图像处理方法及装置
CN113973189B (zh) * 2020-07-24 2022-12-16 荣耀终端有限公司 显示内容的切换方法、装置、终端及存储介质

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160456A (ja) 1993-12-06 1995-06-23 Dainippon Screen Mfg Co Ltd 画像処理装置
JP3277428B2 (ja) * 1994-02-04 2002-04-22 ソニー株式会社 コントロールシステム
US6421460B1 (en) * 1999-05-06 2002-07-16 Adobe Systems Incorporated Blending colors in the presence of transparency
US20030103079A1 (en) * 1999-06-14 2003-06-05 Lycos, Inc., A Virginia Corporation Media resource manager/player
JP2001149679A (ja) 1999-11-25 2001-06-05 Juki Corp 刺繍縫いデータ作成装置、刺繍縫いデータ作成装置の制御方法、および刺繍縫いデータ作成装置の制御プログラムを格納したコンピュータ読取可能な記憶媒体
US20040100486A1 (en) * 2001-02-07 2004-05-27 Andrea Flamini Method and system for image editing using a limited input device in a video environment
US6697079B2 (en) * 2001-03-15 2004-02-24 Apple Computer, Inc. Color palette providing cross-platform consistency
JP4437633B2 (ja) * 2001-08-10 2010-03-24 富士通株式会社 携帯端末
US9092841B2 (en) * 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
JP3669698B2 (ja) * 2002-09-20 2005-07-13 日東電工株式会社 印刷物の検査方法及び検査装置
US7233316B2 (en) * 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
MXPA06003890A (es) * 2003-10-06 2006-07-03 Disney Entpr Inc Sistema y metodo de control de reproduccion y caracteristica para reproductores de video.
JP4684595B2 (ja) * 2004-08-05 2011-05-18 ソニー株式会社 画像表示装置
JP4731862B2 (ja) * 2004-09-15 2011-07-27 キヤノン株式会社 表示装置
US7636449B2 (en) * 2004-11-12 2009-12-22 Cognex Technology And Investment Corporation System and method for assigning analysis parameters to vision detector using a graphical interface
US7551766B2 (en) * 2005-04-01 2009-06-23 Acushnet Company Apparatus and method for inspecting golf balls using threshold analysis
JP4815927B2 (ja) * 2005-07-27 2011-11-16 ソニー株式会社 表示装置、メニュー表示方法、メニュー表示方法のプログラム及びメニュー表示方法のプログラムを記録した記録媒体
US7954064B2 (en) * 2005-10-27 2011-05-31 Apple Inc. Multiple dashboards
US7864178B2 (en) * 2005-11-09 2011-01-04 National Instruments Corporation Creating machine vision inspections using a state diagram representation
JP2007287135A (ja) * 2006-03-20 2007-11-01 Denso Corp 画像表示制御装置および画像表示制御装置用のプログラム
JP4747970B2 (ja) * 2006-07-04 2011-08-17 オムロン株式会社 画像処理装置
WO2008013127A1 (fr) * 2006-07-28 2008-01-31 Access Co., Ltd. Dispositif terminal, méthode d'affichage du contenu et programme d'affichage du contenu
US8243326B2 (en) * 2006-09-11 2012-08-14 Electronics For Imaging, Inc. Methods and apparatus for color profile editing
JP5109340B2 (ja) * 2006-11-08 2012-12-26 オムロン株式会社 画像処理装置、画像表示方法、画像表示方法をコンピュータに実行させるためのプログラムおよびそのプログラムを記録した記録媒体
KR101391689B1 (ko) * 2006-12-28 2014-05-07 삼성전자주식회사 이동가능한 메뉴세트를 이용한 메뉴 제공방법 및 이를적용한 멀티미디어 기기
US8650505B2 (en) * 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
JP2008294705A (ja) * 2007-05-24 2008-12-04 Nikon Corp 表示装置および撮像装置
JP2009116377A (ja) 2007-11-01 2009-05-28 Keyence Corp 画像処理コントローラ用のプログラム作成装置
JP5028253B2 (ja) * 2007-12-28 2012-09-19 株式会社エルモ社 撮像装置
US8638338B2 (en) * 2008-02-11 2014-01-28 Apple Inc. Adjusting color attribute of an image in a non-uniform way
KR101507797B1 (ko) * 2008-05-29 2015-04-03 엘지전자 주식회사 단말기 및 그 제어 방법
JP4221445B1 (ja) * 2008-06-11 2009-02-12 株式会社ベイビッグ テレビ電話端末、テレビ電話端末制御方法及びプログラム
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
JP2010016693A (ja) * 2008-07-04 2010-01-21 Nikon Corp 電子カメラ
JP5203858B2 (ja) * 2008-09-01 2013-06-05 富士フイルム株式会社 医用画像表示装置、医用画像表示方法、並びに医用画像表示プログラム
CN101872600B (zh) * 2009-04-24 2014-07-23 深圳Tcl新技术有限公司 一种显示装置及其图像显示方法

Also Published As

Publication number Publication date
US9728168B2 (en) 2017-08-08
US20110249025A1 (en) 2011-10-13
CN104202517A (zh) 2014-12-10
EP2375381B1 (en) 2012-11-21
JP5411049B2 (ja) 2014-02-12
CN102214066A (zh) 2011-10-12
US20150062172A1 (en) 2015-03-05
EP2375381A1 (en) 2011-10-12
JP2011221712A (ja) 2011-11-04
CN102214066B (zh) 2014-09-10

Similar Documents

Publication Publication Date Title
ES2396215T3 (es) Aparato de procesamiento de imágenes
US10665206B2 (en) Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
KR102161510B1 (ko) 포터블 디바이스 및 그 제어 방법
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
US20180164589A1 (en) Wearable device
US20110102599A1 (en) Mobile terminal including projector and control method thereof
CN110058759B (zh) 显示装置及图像显示方法
US20140278088A1 (en) Navigation Device
CN109643469B (zh) 增强现实渲染的结构化内容
US10410391B1 (en) Remote control highlighter
US20180350122A1 (en) Display device, display control method and display system
US11333892B2 (en) Display apparatus, display system, and display method
JP6552842B2 (ja) 船舶航行用のマーク表示装置
JP7278152B2 (ja) ソフトウェア操作支援システム
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP5861743B2 (ja) 画像処理装置
JP7066013B2 (ja) 治具の配置を示す映像処理システム
US9563344B2 (en) Information processing method and electronic apparatus
US10469673B2 (en) Terminal device, and non-transitory computer readable medium storing program for terminal device
WO2023037476A1 (ja) 表示装置、表示装置の制御方法、及びプログラム
JP2009245366A (ja) 入力システム、指示装置および入力システムの制御プログラム
US20240176459A1 (en) Wearable terminal device, program, and display method
JP6734965B2 (ja) 画像処理装置、プログラムおよび画像処理方法
JP2013131229A (ja) 画像処理システム
KR100999711B1 (ko) 원격 협업 시스템의 실시간 캘리브레이션 장치 및 실시간 캘리브레이션 방법