ES2289633T3 - Dispositivo y procedimiento para la vigilancia de objetos en movimiento. - Google Patents

Dispositivo y procedimiento para la vigilancia de objetos en movimiento. Download PDF

Info

Publication number
ES2289633T3
ES2289633T3 ES05020110T ES05020110T ES2289633T3 ES 2289633 T3 ES2289633 T3 ES 2289633T3 ES 05020110 T ES05020110 T ES 05020110T ES 05020110 T ES05020110 T ES 05020110T ES 2289633 T3 ES2289633 T3 ES 2289633T3
Authority
ES
Spain
Prior art keywords
objects
evaluation circuit
optical sensor
areas
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05020110T
Other languages
English (en)
Inventor
Juergen Reichenbach
Thomas Schopp
Hans-Werner Pierenkemper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102004049482A external-priority patent/DE102004049482A1/de
Application filed by Sick AG filed Critical Sick AG
Application granted granted Critical
Publication of ES2289633T3 publication Critical patent/ES2289633T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/04Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/10Apparatus characterised by the means used for detection ofthe destination
    • B07C3/14Apparatus characterised by the means used for detection ofthe destination using light-responsive detecting means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Dispositivo para la detección de objetos (1, 2, 3) móviles a través del campo de visión de un sensor óptico (6, 6'', 6") con una instalación para la selección de zonas de interés, que solamente están asociadas en cada caso a una parte del campo de visión del sensor óptico (6, 6'', 6"), caracterizado porque un medidor de distancia (5) está integrado en el sensor óptico (6, 6'', 6") o está conectado delante o detrás de éste en la dirección de movimiento (A) de los objetos (1, 2, 3), porque el medidor de distancia (5) está diseñado para la determinación de las distancias de las superficies de los objetos dirigidas hacia el medidor de distancia (5) y está acoplado con un circuito de evaluación (9, 9'', 9") para el cálculo de las zonas de interés en función de las distancias calculadas, porque el circuito de evaluación (9, 9'', 9") está diseñado para el procesamiento solamente de aquellos datos de imagen del sensor (6, 6'' 6"), que están asociados a las zonas de interés, y porque el circuito de evaluación (9, 9'', 9") está diseñado para la determinación de la resolución o del factor de ampliación de las imágenes detectadas por el sensor óptico (6, 6'', 6").

Description

Dispositivo y procedimiento para la vigilancia de objetos en movimiento.
La invención se refiere a un dispositivo y un procedimiento para la detección de objetos móviles a través del campo de visión de un sensor óptico con una instalación para la selección de zonas de interés, que solamente están asociadas en cada caso a una parte del campo de visión del sensor óptico.
En tales dispositivos o procedimientos, que emplean, por ejemplo, sistemas de cámaras, con frecuencia es necesario evaluar los datos de imagen detectados en tiempo real o al menos con una velocidad muy alta, lo que tiene como consecuencia que el sistema de evaluación debe disponer de una potencia de cálculo alta, que está conectada con un gasto económico correspondiente. Para reducir la potencia de cálculo necesaria, se conoce identificar por medio de una fase de procesamiento previo, antes de la evaluación propiamente dicha de los datos de imagen detectados, aquellas zonas de las imágenes registradas, que tienen un interés especial. Tales zonas de interés se designan, en general, como "Regiones de interés" (ROI).
Después de que se han definido las ROIs por medio de la fase de procesamiento previo, se puede limitar, en el marco del circuito de evaluación propiamente dicho, a procesar solamente los datos de imagen detectados de estas ROIs, lo que requiere una potencia de cálculo correspondientemente menor que el procesamiento de las imágenes completas, registradas por el sensor óptico o bien por la cámara.
De acuerdo con el estado de la técnica, las ROIs son determinadas a través de un procesamiento previo de los datos de imagen detectados completos, aplicando aquí, en virtud de la alta corriente de datos de imagen, algoritmos sencillos, que solamente establecen, por ejemplo, si el valor gris de un píxel se encuentra fuera de un valor umbral predeterminado. Cuando éste es el caso, se asocia el píxel verificado a una ROI, en otro caso no se tiene en cuenta durante la evaluación posterior. Tales algoritmos están afectados, entre otras cosas, por el inconveniente de que no siempre se cumple de forma fiable la condición respectiva, en el ejemplo mencionado anteriormente, el exceso de un valor umbral predeterminado, puesto que, por ejemplo, un objeto de interés a detectar no siempre forzosamente es más claro que el fondo que rodea al objeto. En tales casos, no se pueden aplicar los algoritmos mencionados o solamente en una medida limitada.
El documento EP-A-1 431 707 publica un sensor dispuesto fuera de un medio de transporte segmentado, que puede estar configurado, por ejemplo, como cámara o como escáner de láser. El sensor está diseñado, entre otras cosas, para determinar valores de distancia entre el objeto transportado sobre el medio de transporte y el sensor, con el fin de dimensionar de esta manera el objeto transportado.
Se conoce a partir de Patent Abstracts of Japan, Vol. 1998, Nº 13, número de publicación JP-A-10 210354, prever en una cámara un circuito de evaluación que, a partir de la distancia con respecto al objeto a registrar y la distancia focal del objetivo de la cámara, calcula el factor de amplificación de la imagen respectiva detectada.
El documento WO 02/07904 publica un procedimiento para el procesamiento de piezas escrituras postales, en el marco del cual se determinan zonas de interés sobre la superficie de las piezas escritas en virtud de las diferencias de color.
El documento EP 0 984 382 A2 publica una disposición, en la que dos lectores de códigos de barras detectan objetos móviles desde diferentes ángulos de visión.
El problema de la invención consiste en desarrollar un dispositivo y un procedimiento del tipo mencionado al principio, de tal forma que se pueden determinar las zonas de interés (ROIs) dentro del campo de visión de un sensor óptico con la mayor fiabilidad posible, debiendo ser posible también, en determinadas variantes de la invención, generar informaciones adicionales, que se refieren a las zonas de interés (ROIs) o a los objetos completos.
Este problema se soluciona, de acuerdo con una primera variante de la invención, a través de un dispositivo con las características de la reivindicación 1.
Además, este cometido se soluciona de acuerdo con la primera variante de la invención, a través de un procedimiento con las características de la reivindicación 20.
Por lo tanto, de acuerdo con la invención, los datos de imagen determinados por el sensor óptico no se utilizan, en general, para la determinación de las ROIs, en su lugar se emplea para la determinación de las ROIs un aparato separado, a saber, un medidor de distancia, que está en condiciones de determinar su distancia con respecto a las superficies del objeto dirigidas hacia el mismo. Cuando se conocen entonces, además, la distancia entre el medidor de distancia y la superficie, sobre la que se encuentran los objetos a detectar, se pueden determinar sin problemas las posiciones de aquellas zonas detectadas por el medidor de distancia, en las que la distancia determinada no con la distancia con respecto al fondo. En estas zonas se trata entonces de ROIs, en las que está presente un objeto. La información de la posición de las ROIs determinada a la manera de la invención se puede utilizar entonces para evaluar, en el marco del circuito de evaluación, solamente todavía aquellos contenidos de la imagen detectados por el sensor óptico, que están asociados a las ROIs determinadas con anterioridad.
Además, de acuerdo con la invención, a partir de las distancias suministradas por el medidor de distancia se calcula la resolución o el factor de amplificación de las imágenes detectadas por el sensor óptico, de manera que durante el procesamiento de las ROIs se conoce, por ejemplo, con qué resolución dpi están presentes las imágenes detectadas por el sensor óptico. Cuando entonces deben reconocerse, por ejemplo, letras o cifras presentes en las ROIs, que presentan sobre los objetos detectados magnitudes absolutas definidas en cada caso, por medio de algoritmos de procesamiento de imágenes automáticos, el algoritmo respectivo de procesamiento de la imagen dispone de una información acerca de la magnitud, medida en píxeles de las imágenes detectadas, que poseen las letras o cifras a reconocer. De esta manera, se puede mejorare la eficiencia del algoritmo respectivo de procesamiento de la imagen.
En el circuito de evaluación empleado de acuerdo con todas las variantes de la invención se puede tratar de un componente separado, pero también de un componente del sensor óptico o del medidor de distancia. El circuito de evaluación puede representar, en la primera variante de la invención, un componente individual, que calcula tanto las zonas de interés como también la resolución o bien el factor de amplificación. De una manera alternativa, para el cálculo de las zonas de interés, por una parte, y para el cálculo de la resolución o bien del factor de amplificación, por otra parte, se pueden emplear también componentes separados, distanciados unos de otros en el espacio, del circuito de evaluación.
Puesto que en el caso de empleo según la invención de un medidor de distancia, que no tiene en cuenta el comportamiento de remisión, la determinación de la distancia entre el medidor de distancia previsto de acuerdo con la invención y las superficies a detectar del objeto es totalmente independiente de la capacidad de reflexión, de la naturaleza y del color de las superficies de los objetos así como del fondo que rodea a los objetos, con esta variante de acuerdo con la invención se puede establecer con una fiabilidad muy alta dónde se encuentran los objetos a detectar, sin que para ello se requiere de una manera relevante una capacidad de cálculo del circuito de evaluación. Esta ventaja se aplica también para la segunda variante de la invención que se explica todavía a continuación.
La potencia de cálculo del circuito de evaluación se puede diseñar en todas las variantes de acuerdo con la invención de tal forma que está en condiciones de procesar los datos de imagen de las ROIs a la velocidad requerida en cada caso, dado el caso en tiempo real. No es necesaria una potencia de cálculo más elevada, puesto que las ROIs -como se ha mencionado- se pueden determinar de acuerdo con la invención en cierto modo sin solicitación de la capacidad de cálculo del circuito de evaluación.
De una manera preferida, el circuito de evaluación está diseñado para la determinación de la geometría de los objetos, que se lleva a cabo en función de las distancias determinadas. En este caso, entonces con la finalidad de un procesamiento posterior adecuado, se pueden poner a disposición, además del factor de amplificación o bien la resolución, también todavía una información sobre la magnitud de los objetos detectados o bien sobre su forma. En particular, a través del circuito de evaluación, en función de las distancias determinadas, se puede determinar también el volumen de cada objeto detectado.
El problema mencionado anteriormente se puede solucionar también, de acuerdo con otra variante de la invención, a través de un dispositivo con las características de la reivindicación 5.
De acuerdo con la segunda variante de la invención, se emplean dos o más sensores ópticos, para detectar los objetos desde diferentes ángulos de visión. Esto es, por ejemplo, especialmente ventajoso cuando las ROIs a detectar están dispuestas sobre una superficie del objeto que está alejada de un sensor. Tales ROIs pueden ser detectadas entonces a través de al menos otro sensor, de manera que a través del empleo de varios sensores se puede asegurar la detección fiable de ROIs en función de la alineación y la posición de los objetos sobre un medio de transporte.
En el caso de utilización de varios sensores ópticos, sus ejes ópticos pueden estar perpendiculares entre sí. De esta manera se pueden prever, por ejemplo, en total tres sensores, uno de los cuales mira desde arriba y los otros dos miran desde un lado respectivo sobre objetos, que se mueven a lo largo de un medio de transporte.
Los ejes ópticos de los sensores ópticos se pueden extender perpendiculares o inclinados con respecto a la dirección de movimiento de los objetos. Cuando, por ejemplo, el eje óptico de un sensor presenta un ángulo de aproximadamente 45º con respecto a la dirección de movimiento de los objetos, un sensor óptico de este tipo está en condiciones de detectar, por ejemplo, al mismo tiempo dos lados de un objeto de forma de paralelepípedo, que está alineado sobre un medio de transporte, de tal manera que dos lados opuestos entre sí de este objeto se extienden esencialmente paralelos a la dirección de movimiento del objeto. Para asegurar que al menos un sensor mire desde arriba sobre los objetos móviles, el eje óptico de un sensor óptico se puede extender perpendicular al plano de transporte.
Es ventajoso que la pluralidad de sensores ópticos estén conectados a través de una red de datos con uno o varios circuitos de evaluación. Esto posibilita que, por ejemplo, un circuito de evaluación procese los datos de varios sensores o que, por ejemplo, en el caso de un volumen de datos especialmente alto, dos o más circuitos de evaluación procesen en común los datos de un sensor óptico. Además, durante el funcionamiento del dispositivo de acuerdo con la invención, en este caso se puede realizar también asociaciones alternas entre los sensores ópticos y los circuitos de evaluación.
En particular, es posible asociar a cada sensor óptico en cada caso un circuito de evaluación propio, lo que eleva la velocidad del dispositivo general y especialmente posibilita un procesamiento en tiempo real de los datos detectados.
La pluralidad de sensores ópticos pueden estar conectados a través de una red de datos en forma de estrella con el o los circuitos de evaluación. No obstante, de una manera alternativa, también es posible prever en cada caso en una derivación de la red un sensor óptico y un circuito de evaluación asociado al mismo, estando guiadas las salidas de los circuitos de evaluación mencionados sobre un punto nodal común de la red, que está conectado de nuevo con una estación de procesamiento posterior. La última variante mencionada tiene, frente a una conexión en red en forma de estrella, el inconveniente de que un circuito de evaluación solamente puede acceder siempre sólo a los datos del sensor óptico dispuesto en la misma derivación de la red.
Cada circuito de evaluación previsto de acuerdo con la invención puede estar diseñado para la decodificación automática de caracteres escritos y/o para la representación óptica de zonas de imágenes con caracteres escritos que no pueden ser decodificados de forma automática. Cuando se realizan al mismo tiempo las dos variantes mencionadas anteriormente, es posible decodificar por medio del circuito de evaluación y en primer lugar los caracteres escritos que pueden ser decodificados de forma automática y a continuación representan ópticamente los caracteres escritos que no pueden ser decodificados de forma automática, para que éstos puedan ser reconocidos visualmente por un operador. Después de un reconocimiento de este tipo, los caracteres escritos reconocidos pueden introducirse manualmente entonces, por ejemplo, a través de un medio de entrada por el operador y pueden ser transmitidos al circuito de evaluación, de manera que el circuito de evaluación tiene a disposición en último término tanto los caracteres escritos que pueden ser decodificados de forma automática como también los caracteres escritos que no pueden ser decodificados de forma automática para la finalidad del procesamiento posterior.
Es especialmente ventajoso, especialmente en el caso de una conexión en red en forma de estrella, que al menos un circuito de evaluación esté diseñado para la representación óptica de zonas de imagen suministradas por diferentes sensores ópticos. Cuando en este caso, por ejemplo, un operador no puede reconocer un carácter escrito en virtud de los datos suministrados por un sensor óptico, existe la posibilidad de permite la representación óptica de los datos de otro sensor, que ve un objeto, por ejemplo, desde otro ángulo de visión, desde el que se puede leer mejor el carácter escrito a reconocer.
Las formas de realización preferidas de la invención descritas a continuación se pueden aplicar tanto en el marco de la primera variante de la invención como también en el marco de la segunda variante de la invención.
El medidor de distancia empleado de acuerdo con la invención puede estar constituido por una o varias unidades y debe estar en condiciones de determinar distancias con respecto a diferentes puntos de la superficie de los objetos a detectar. Adicionalmente a las distancias deben reconocerse o bien determinarse entonces informaciones de posición que están asociadas a los valores respectivos de la distancia, para que se pueda determinar en qué lugares están presentes zonas de objetos, para poder tener en cuenta estas zonas a continuación como ROIs.
Se puede conseguir un modo de trabajo especialmente exacto del dispositivo de acuerdo con la invención cuando el medidor de la distancia o una disposición de una pluralidad de medidores de la distancia están en condiciones de determinar los valores de la distancia con respecto al mayor número posible de puntos de las superficies del objeto que se encuentran lo más estrechamente adyacentes entre sí, siendo especialmente ventajoso que se posibilite una exploración completa de las superficies del objeto.
Es especialmente preferido que el medidor de distancia empleado de acuerdo con la invención propiamente dicho esté diseñado no sólo para la determinación de distancias sino también adicionalmente para la determinación de informaciones de posición correspondientes. De una manera correspondiente, el medidor de distancia está realizado con preferencia como escáner, especialmente como escáner de láser. Un escáner, que puede estar realizado como escáner de líneas o escáner superficial, posibilita la exploración completa de objetos, pudiendo determinarse las informaciones de posición que existen, por ejemplo, en forma de coordenadas polares para cada valor de distancia calculado. Además, es ventajoso que tales escáneres representen aparatos de venta en el comercio, de manera que con ellos se puede realizar de una manera económica un dispositivo de acuerdo con la invención.
Un escáner de láser empleado de acuerdo con la invención está diseñado de una manera preferida para la emisión de un rayo láser móvil periódicamente dentro de un plano de exploración. Cuando un objeto a detectar se mueve a través de este plano de exploración, es posible explorar totalmente el objeto y determinar un perfil de altura tridimensional del objeto. La posición de este perfil de altura en toda la superficie explorada corresponde entonces a una ROI.
El plano de exploración del escáner de láser se puede extender perpendicular o inclinado con respecto a la dirección de movimiento de los objetos. Solamente es importante que el plano de exploración esté orientado con relación a los objetos a detectar de tal forma que el rayo láser pueda acceder a todas las superficies del objeto dirigidas hacia el escáner de láser.
Es ventajoso que el aparato de medición no sólo pueda determinar distancias e informaciones de posición correspondientes, sino adicionalmente también todavía el comportamiento de remisión de las zonas detectadas del objeto. En este caso, es posible, por ejemplo, segmentar todavía adicionalmente las ROIs establecidas de acuerdo con la invención en función del comportamiento de remisión determinado y establecer zonas especialmente interesantes dentro de las ROIs. En el caso de una evaluación adicional, se pueden investigar entonces, por ejemplo, solamente todavía estas regiones especialmente interesantes. En concreto, por ejemplo, a través de la investigación del comportamiento de remisión de una ROI determinada se puede establecer dentro de esta ROI en qué lugar se encuentra un código, por ejemplo un código de barras. El circuito de evaluación se puede limitar entonces a investigar exclusivamente aquella zona en la que se encuentra el código, lo que requiere correspondientemente menos potencia de cálculo que la investigación de la superficie completa del objeto determinada como ROI. De acuerdo con la variante preferida explicada según la invención, se calculan, por lo tanto, en último término las zonas especialmente interesantes y a procesar posteriormente en función de las distancias determinadas y del comportamiento de remisión determinado.
Además, es ventajoso que el circuito de evaluación esté diseñado para la consideración de la zona de profundidad de nitidez del sensor óptico, de tal forma que solamente se pueden determinar aquellas zonas de interés, en las que se encuentra la superficie del objeto en la zona de baja resolución del sensor óptico. Esta variante se puede realizar sin más, cuando el circuito de evaluación conoce los valores de distancia que corresponden a la zona de baja resolución, puesto que en este caso pueden permanecer sin consideración durante la evaluación todas aquellas zonas de la superficie del objeto, cuyas distancias con respecto al medidor de la distancia se encuentran fuera de la zona de baja resolución del sensor óptico. De esta manera, se puede reducir todavía adicionalmente la potencia de cálculo necesaria del circuito de evaluación, puesto que durante la evaluación pueden permanecer sin consideración también las zonas de las superficies del objeto que se encuentran dentro de ROIs, cuando se encuentran fuera de la zona de baja resolución. La potencia de cálculo solamente se necesita para aquellas zonas de la superficie, que se encuentran, por una parte, dentro de una ROI determinada y, por otra parte, también dentro de la zona de baja resolución.
El sensor óptico empleado en el marco de la invención se puede configurar, por ejemplo, como cámara, especialmente como cámara de líneas o cámara de matriz o también como escáner de código de barras. Es especialmente ventajoso que se emplee una cámara de líneas en combinación con un medidor de distancia configurado como escáner de láser, puesto que los planos de exploración o bien de detección de los dos dispositivos se pueden alinear entonces entre sí de tal forma que detectan los objetos dentro de sus campos de visión respectivos en las mismas posiciones, respectivamente, de manera que las posiciones de las ROIs determinadas a través del escáner de láser se pueden procesar a continuación directamente como informaciones de posición para la cámara de líneas, sin que haya que realizar una transformación entre diferentes sistemas de coordenadas de los dos aparatos. No obstante, de la misma manera es posible también integrar el sensor óptico y el medidor de distancia en un único aparato con carcasa común, de manera que se puede suprimir una alineación, realizada en el lugar, del sensor óptico y del medidor de distancia. Además, en este caso se puede ahorra entonces de la misma manera la transformación mencionada anteriormente.
Los objetos móviles de acuerdo con la invención a través del campo de visión del sensor óptico se pueden mover por medio de una instalación de transporte, especialmente por medio de una cinta transportadora. La instalación de transporte es accionada en este caso con preferencia a velocidad constante. El medidor de distancia empleado de acuerdo con la invención se puede disponer en este caso fuera de la instalación de transporte, pero también en el lateral de la instalación de transporte, según que deben detectarse superficies o superficies laterales de los objetos.
Cuando debe determinarse la posición de ROIs a través del medidor de distancia empleado de acuerdo con la invención, se puede calcular de una manera sencilla a través de la velocidad de la instalación de transporte así como a través de la distancia entre los campos de visión o bien los planos de exploración del medidor de distancia y del sensor óptico, en qué instante la ROI determinada a través del medidor de distancia se encuentra en el campo de visión del sensor óptico y dónde se encuentra la ROI determinada dentro de este campo de visión.
Para un procesamiento de la imagen en tiempo real, es necesario conectar el medidor de distancia delante del sensor óptico en la dirección de transporte o integrar los dos aparatos en una única carcasa, puesto que las posiciones de las ROIs deben ser conocidas ya en este caso, cuando o poco después de que los objetos llegan al campo de visión del sensor óptico. En el caso de que no se necesite un procesamiento en tiempo real, en principio es también posible conectar el medidor de distancia después del sensor óptico en la dirección de transporte de los objetos.
El circuito de evaluación se puede diseñar de acuerdo con la invención adicionalmente para la determinación de la geometría de los objetos que se lleva a cabo en función de las distancias determinadas. A partir de estas informaciones se puede calcular entonces, en caso necesario, también el volumen de los objetos detectados. En muchas aplicaciones existentes en la práctica se emplean de todos modos escáneres láser, para determinar los volúmenes de objetos transportados por delante de estos escáneres láser. En tales casos de aplicación se puede emplear el dispositivo de acuerdo con la invención de una manera especialmente económica, puesto que no deben aplicarse ningún gasto adicional de aparatos, sino que la realización de un dispositivo de acuerdo con la invención solamente se puede llevar a cabo a través de una reprogramación del circuito de evaluación que se encuentra de la misma manera regularmente o bien dentro del escáner de láser o está presente como componente separado.
Además, es ventajoso que se prevea una instalación de enfoque de la cámara impulsada en función de las distancias determinadas. De esta manera se puede asegurar que una cámara empleada como sensor óptico esté enfocada siempre sobre la superficie del objeto de interés en cada caso.
Además, se puede prever una instalación de iluminación del objeto, que se puede activar a través del circuito de evaluación, de tal manera que se iluminan las ROIs y no se iluminan las zonas que no son interesantes. A través de una iluminación selectiva de este tipo se cargan menos las fuentes de luz de la instalación de iluminación de objetos, de manera que se puede elevar su duración de vida útil. No obstante, de la misma manera es posible activar la instalación de iluminación de objetos a través del circuito de evaluación, de tal forma que las ROIs son iluminadas con mayor intensidad que las zonas que no son de interés. Por medio de una intensidad de la luz elevada de este tipo en la zona de las ROIs se puede elevar la calidad de imagen de las imágenes detectadas por el sensor óptico o, por ejemplo, también la velocidad de lectura de un escáner de códigos de barras empleado. Puesto que las zonas que no son de interés son iluminadas con menor intensidad, las fuentes de luz no se cargan, en general, más intensamente a través de la medida general, de manera que no se influye negativamente sobre su duración de vida útil a través de la intensidad elevada de la iluminación en la zona de las ROIs.
Las variantes explicadas anteriormente de la activación de la instalación de iluminación de los objetos se pueden emplear de una manera especialmente ventajosa cuando las fuentes de luz de la instalación de iluminación de los objetos están realizadas como LEDs. Las medidas explicadas repercuten aquí de una manera especialmente ventajosa, puesto que la duración de vida de los LEDs es, en principio, limitada.
Además, de acuerdo con la invención, es ventajoso que el sensor óptico y/o el circuito de evaluación sean equipados con una interfaz de datos, que es adecuada para la transmisión de los datos relacionados con las zonas de interés a un aparato externo. Un aparato externo de este tipo puede ser adecuado, por ejemplo, para la decodificación automática de caracteres de escritura y/o para la representación óptica de zonas de imágenes con caracteres de escritura que no se pueden decodificar de forma automática.
A través de la interfaz de datos mencionado es posible reducir al mínimo necesario la extensión de los datos transmitidos a un aparato externo para el procesamiento posterior, de manera que el aparato externo no es necesario en el procesamiento siguiente de estos datos, sino que solamente se carga en la extensión necesaria en cada caso. Esto es especialmente ventajoso, por ejemplo, cuando el aparato externo está diseñado para representar visualmente para una persona aquellas zonas de imagen, que no se pueden decodificar de forma automática, puesto que en este caso no se carga a dicha persona a considerar zonas de la imagen que no representan información a decodificar o los caracteres de escritura ya decodificados anteriormente de forma automática.
En el caso de empleo de dicha interfaz de datos, es especialmente preferido que el sensor óptico y/o el circuito de evaluación estén equipados con una fase de compresión para la compresión de los datos relacionados con las zonas de interés y que deben transmitirse a través de la interfaz de datos. Con una fase de compresión de este tipo se puede reducir todavía adicionalmente la cantidad de los datos a transmitir a un aparato externo después de una limitación a las zonas de interés. En este caso es especialmente deseable que la fase de compresión esté diseñada para la compresión de datos de imagen relacionados con zonas de interés ya durante la detección de la imagen respectiva. De esta manera se lleva a cabo la compresión prácticamente en el instante más precoz posible, puesto que al menos ya mayor parte se realiza ya durante la detección de la imagen, de manera que los datos están disponibles también en el aparato externo en un instante muy precoz, lo que, en último término, tiene como consecuencia que existe más tiempo para el procesamiento posterior a través del aparato externo.
La compresión durante la detección se puede desarrollar de acuerdo con diferentes procedimientos:
En el caso del diseño del sensor óptico como cámara de líneas, es posible, por ejemplo, comprimir cada línea de la imagen totalmente recibida, relacionada con una zona de interés, inmediatamente después de su detección.
De una manera alternativa, es posible comprimir un número predeterminado de líneas de la imagen recibidas totalmente, relacionadas con una zona de interés, inmediatamente después de la detección de dicho número de líneas de la imagen.
Por último, por ejemplo, también es posible comprimir un número predeterminado de píxeles recibidos, relacionados con una zona de interés, de una o varias líneas de la imagen después de la detección de dicho número de píxeles.
De la misma manera son concebibles otras variantes de realización.
Otras formas de realización preferidas de la invención se indican en las reivindicaciones dependientes.
A continuación se describe la invención con la ayuda de ejemplos de realización con referencia a los dibujos; en éstos:
La figura 1 muestra un diagrama de principio tridimensional de un dispositivo de acuerdo con la invención.
La figura 2 muestra una vista en planta superior sobre una cinta transportadora de acuerdo con la figura 1.
La figura 3 muestra otra vista en planta superior sobre la cinta transportadora de acuerdo con la figura 1 con zonas de objetos especialmente interesantes.
La figura 4 muestra una vista lateral de una cámara así como de un objeto con identificación de la zona de baja resolución de la cámara.
Las figuras 5a, b muestran vistas en planta superior sobre un objeto de acuerdo con la figura 4.
La figura 6 muestra otra vista en planta superior sobre una cinta transportadora de acuerdo con la figura 1 con zonas iluminadas especialmente identificadas.
La figura 7 muestra una representación de acuerdo con la figura 1, en total, con tres sensores.
La figura 8 muestra una disposición conectada en red de componentes de acuerdo con la invención según una primera forma de realización, y
La figura 9 muestra una disposición conectada en red de componentes de acuerdo con la invención según una segunda forma de realización.
La figura 1 muestra tres objetos 1, 2, 3, que se encuentran sobre una cinta transportadora 4, que transporta los objetos 1, 2, 3 en la dirección de la flecha A. Por encima de la cinta transportadora 4 están montados, en la dirección de transporte A, uno detrás de otro un escáner de láser 5 así como una cámara de líneas 6.
En el escáner de láser 5 se trata de un escáner de líneas, que es adecuado para emitir periódicamente un rayo láser móvil dentro de un plano de exploración 7. El plano de exploración 7 se extiende en este caso perpendicularmente a la dirección de transporte A. El escáner de láser 5 está colocado frente a la cinta transportadora 4 de tal forma que el rayo láser emitido explora la cinta transportadora 4 sobre un poco más que toda su anchura, de manera que todos los objetos, que se encuentran sobre la cinta transportadora 4, pueden ser detectados por el escáner de láser 5.
De una manera correspondiente, el campo de visión de la cámara de líneas 6 en forma de V, que se encuentra dentro de un plano 8, está alineado de tal forma que se pueden detectar por la cámara de líneas 6 todos los objetos transportados sobre la cinta transportadora 4 por debajo de la cámara de líneas 6. El plano 8 del campo de visión de la cámara de líneas 6 se extiende en este caso en paralelo al plano de exploración 7 del escáner de láser 5 y perpendicularmente a la dirección de transporte A.
El escáner de láser 5 y la cámara de líneas 6 están conectados con un circuito de control y de evaluación 9, que es adecuado, por una parte, para activar el escáner de láser 5 y la cámara de líneas 6 de la manera necesaria de acuerdo con la invención y se ocupa, por otra parte, de una evaluación de los datos suministrados por el escáner de láser 5 y la cámara de
líneas 6.
El circuito de control y evaluación 9 conoce las distancias del escáner de láser 5 con respecto al plano de transporte de la cinta transportadora 4 con relación a todos aquellos puntos, en los que el plano de exploración 7 del escáner de láser 5 corta este plano de transporte. La línea e corte correspondiente se identifica en la figura 1 con el signo de referencia 10. Cuando ahora el circuito de control y de evaluación 9 recibe suministradas desde el escáner de láser 5 solamente distancias que corresponden a estas distancias conocidas con respecto al plano de transporte, el circuito de control y evaluación conoce que no se encuentra ningún objeto dentro del plano de exploración 7, de manera que en el instante correspondiente, en el plano de exploración 7 no se encuentra ninguna ROI. En cambio, si el escáner de láser 5 suministra datos de distancia, que se desvían de los datos de distancia conocidos entre el escáner de láser 5 y el plano de transporte, entonces existen en aquellas posiciones, en las que aparecen las desviaciones mencionadas, superficies de objetos, que no coinciden con el plano de transporte, sino que se encuentran más cerca del escáner de láser 5 que el plano de transporte. Estas posiciones son asociadas entonces por el circuito de control y de evaluación 9 a una ROI.
Por lo tanto, por medio del escáner de láser 5 y del circuito de control y de evaluación 9 se puede establecer en qué posiciones de la cinta transportadora 4 se encuentran objetos 1, 2, 3. A partir de la velocidad de transporte y de la distancia entre el plano de exploración 7 y el plano del campo de visión 8 de la cámara de líneas 6 se puede calcular entonces sin problemas cuándo los objetos 1, 2, 3 detectados por el escáner de láser 5 se encuentran en el plano del campo de visión 8 de la cámara de líneas 6 y en qué posición se mantienen los objetos 1, 2, 3 dentro de este plano de, campo de visión 1, 2, 3. Los datos suministrados por la cámara de líneas 6 al circuito de control y de evaluación 9 son evaluados, como consecuencia de ello, solamente cuando están asociados a una ROI. Los datos de la imagen, que muestran solamente el plano de transporte de la cinta transportadora 4 sin objetos 1, 2, 3 colocados encima, no se asocian de acuerdo con la invención a zonas de interés y no se tienen en cuenta en la evaluación de los datos de la imagen.
El circuito de evaluación 9 está equipado con una interfaz de datos 15, a través de la cual se pueden transmitir los datos relacionados con las ROIs a un aparato externo 16. El aparato externo 16 puede ser adecuado, por ejemplo, para la decodificación automática de caracteres escritos.
Además, el circuito de evaluación 9 está equipado también todavía con una fase de compresión 17, que es adecuada para comprimir los datos relacionados con las ROIs especialmente ya durante la detección, de manera que éstos se pueden transmitir entonces con extensión reducida a través de la interfaz de datos 15 hacia el aparato externo 16.
Por último, de acuerdo con la invención, a partir de las distancias suministradas por el escáner de láser 5, se calcula la resolución o el factor de amplificación de las imágenes detectadas por la cámara de líneas 6, de manera que durante un procesamiento posterior de las ROIs se conoce, por ejemplo, con qué resolución dpi están presentes las imágenes detectadas por la cámara de líneas 6. A partir de ello se obtienen entonces las ventajas ya explicadas.
La figura 2 muestra en una vista en planta superior los objetos 1, 2, 3 transportados sobre la cinta transportadora 4. Las superficies de los objetos visibles en la vista en planta superior, que se representan en gris en la figura 2, se clasifican con un dispositivo según la figura 1 como ROIs, de manera que el circuito de control y de evaluación 9 solamente procesa los datos de la imagen suministrados por la cámara de líneas 6, que están asociados a estas ROIs.
Como ya se ha mencionado, el escáner de láser 5 puede estar diseñado adicionalmente también todavía para la determinación del comportamiento de remisión de las superficies de los objetos, para poder determinar de esta manera, por ejemplo, las posiciones de códigos colocados sobre las superficies de los objetos. La figura 3 muestra una representación que corresponde a la figura 2, estando representadas aquí, sin embargo, solamente aquellas zonas especialmente interesantes como ROIs identificadas de negro, en las que están presentes códigos a leer por la cámara de líneas 6 de acuerdo con la figura 1. Por lo tanto, no tienen que tenerse en cuenta todas las superficies de los objetos que se muestran en la figura 2 durante el procesamiento de imágenes a través de la unidad de control y de evaluación 9. En su lugar, es suficiente una evaluación de las zonas de las superficies de los objetos identificadas en gris en la figura 3.
La figura 4 muestra en vista lateral una cámara de líneas 6, que está alineada de tal forma que es adecuada parta la detección de un objeto triangular 11 en la sección transversal. La zona de baja resolución de la cámara de líneas 6 está identificada con 12. A partir de la figura 4 se deduce que solamente una zona pequeña 13 del objeto, dirigida hacia la cámara de líneas 6, se encuentra en la zona de baja resolución 12 de la cámara de líneas 6. De acuerdo con ello, en el marco del procesamiento de la imagen es conveniente procesar solamente aquellos datos de la imagen registrados desde el objeto 11, que proceden de una zona de la superficie del objeto, que se encuentra dentro de la zona de baja resolución 12. Por medio del escáner de láser 5 se puede determinar previamente la distancia entre la cámara de líneas y las superficies del objeto 11 dirigidas hacia la misma, de manera que entonces se procesan en el circuito de control y de evaluación 9 en último término sólo aquellos datos de la imagen que están asociados a zonas de las superficies del objeto, que se encuentran en la zona de baja resolución 12. De esta manera se pueden reducir todavía adicionalmente los datos de la imagen a procesar, como se ilustra en las figuras 5a y 5b.
La figura 5a muestra en color gris oscuro todas las zonas de las superficies del objeto 11, que pueden ser detectadas por la cámara de líneas 6 de acuerdo con la figura 4, y, en concreto, de una manera independiente de si se encuentran o no dentro de la zona de baja resolución 12.
En la figura 5b se representan en negro solamente aquellas zonas de las superficies, que pueden ser asociadas a la zona de baja resolución 12. Todas las otras zonas de las superficies del objeto 11 se representan en color blanco. De acuerdo con el procedimiento preferido según la invención de acuerdo con la figura 4, solamente pasan al procesamiento posterior a través del circuito de control y de evaluación 9 aquellos datos de la imagen que están identificados en negro en la figura 5b y que proceden de zonas de las superficies de los objetos que se encuentran dentro de la zona de baja resolución 12 de la cámara de líneas 6. Por lo tanto, en función de la zona de baja resolución 12 de la cámara de líneas 6 es posible una reducción adicional de las ROIs definidas a través del escáner de
láser 5.
La figura 6 muestra de nuevo la cinta transportadora de acuerdo con las figuras 1 a 4, estando identificada aquí, adicionalmente a los objetos 1, 2, 3 en vista en planta superior, rayada en negro también todavía aquella zona 14, que se puede iluminar de una manera selectiva por medio de una instalación de iluminación de los objetos no representada. Como ya se ha explicado, a través de los datos determinados por el escáner de láser 5, se puede activar una instalación de iluminación, de manera que se iluminan esencialmente sólo las ROIs o zonas, que se extienden un poco más allá de las ROIs. La zona de iluminación 14 de acuerdo con la figura 6 no es iluminada al mismo tiempo. En su lugar, es suficiente iluminar esencialmente en forma de franjas siempre sólo aquella zona de los objetos 1, 2, 3, que se encuentra dentro del plano del campo de visión 8 de la cámara de líneas 6 según la figura 1. La longitud y la posición de la zona en forma de franja, que se extiende transversalmente a la dirección de transporte A, son en este caso dependientes de las ROIs determinadas a través del escáner de láser 5 y a través del circuito de control y de evaluación 9.
La figura 7 muestra de una manera similar a la figura 1 tres objetos 1, 2, 3, que son transportados sobre una cinta transportadora 4 en la dirección de la flecha A. Por encima de la cinta transportadora 4 están montados en la dirección de transporte A unos detrás de otros un escáner de láser 5 así como, en total, tres cámaras de líneas 6, 6', 6''.
Los ejes ópticos de las tres cámaras de líneas 6, 6', 6'' se extienden perpendiculares entre sí, extendiéndose el eje óptico de la cámara de líneas 6 perpendicularmente al plano de la cinta transportadora 4 y extendiéndose los ejes ópticos de las cámaras de líneas 6' y 6'' en paralelo al plano mencionado. Todos los ejes ópticos de las cámaras de líneas 6, 6', 6'' se extienden perpendicularmente a la dirección de transporte A. De esta manera, la cámara de líneas 6 mira desde arriba y las cámaras de líneas 6', 6'' miran desde lados opuestos sobre los objetos 1, 2, 3.
El escáner láser 5 y las cámaras de líneas 6, 6', 6'' están conectados con un circuito de control y de evaluación 9 que, por una parte, es adecuado para activar el escáner de láser 5 y las cámaras de líneas 6, 6', 6'' de la manera necesaria de acuerdo con la invención y, por otra parte, se ocupa de la evaluación de los datos suministrados por el escáner de láser 5 y las cámaras de líneas 6, 6', 6''. El circuito de control y de evaluación 9 está conectado en este caso de nuevo con un aparato externo 16, al que se pueden transmitir los datos relacionados con las ROIs. Por lo demás, el modo de funcionamiento del dispositivo de acuerdo con la figura 7 corresponde al modo de funcionamiento de aquel dispositivo que se muestra en la figura 1, con la única diferencia de que según la figura 7, los datos suministrados por tres cámaras de líneas 6, 6', 6'' están disponibles para la finalidad del procesamiento posterior.
La figura 8 muestra en representación esquemática una red, que presenta, en total, tres derivaciones de la red, en las que están dispuestos, respectivamente, un sensor óptico 6, 6', 6'' y un circuito de evaluación 9, 9', 9'' asociado al mismo. Las salidas de los circuitos de evaluación 9, 9', 9'' están conducidas sobre un punto nodal común de la red 18, que está conectado con una estación de procesamiento posterior o bien con un aparato externo 16. En el aparato externo se trata de una manera preferida de un ordenador central, que procesa los datos suministrados por los circuitos de evaluación 9, 9', 9''.
Los circuitos de evaluación 9, 9', 9'' están configurados de acuerdo con la figura 8 de tal forma que son adecuados también para la representación óptica de los datos suministrados por los sensores ópticos 6, 6', 6''. Además, poseen un medio de entrada, a través del cual se pueden introducir por un operador manualmente los datos reconocidos en el circuito de evaluación 9, 9', 9''.
La figura 9 corresponde esencialmente a la figura 8, con la diferencia de que la red aquí no está constituida por tres derivaciones de la red, son más bien está constituida en forma de estrella. Adicionalmente está previsto todavía un ordenador de control 19, que está diseñado para la coordinación de los flujos de datos y, dado el caso, también para la memorización intermedia de datos.
En una disposición de acuerdo con la figura 9 es ventajoso el hecho de que todos los componentes 6, 6', 6'', 9, 9', 9'', 19 y 16 se pueden comunicar entre sí dentro de la red. De esta manera, se consiguen las ventajas ya explicadas anteriormente. En particular, es posible representar en la unidad de representación de un circuito de evaluación 9, 9', 9'' discrecional los datos detectados por uno cualquiera de los sensores ópticos 6, 6', 6''.
En una forma de realización alternativa de la disposición de acuerdo con la figura 9 sería también posible prever, en lugar de los tres circuitos de evaluación 9, 9', 9'', solamente un único circuito de evaluación 9, que es competente entonces para todos los datos de todos los sensores ópticos 6, 6', 6''.
Lista de signos de referencia
\global\parskip0.500000\baselineskip
1
\tabul
Objeto
2
\tabul
Objeto
3
\tabul
Objeto
4
\tabul
Cinta transportadora
5
\tabul
Escáner de láser
6
\tabul
Cámara de líneas
6'
\tabul
Cámara de líneas
6''
\tabul
Cámara de líneas
7
\tabul
Plano de exploración
8
\tabul
Plano
9
\tabul
Circuito de control y de evaluación
9'
\tabul
Circuito de control y de evaluación
9''
\tabul
Circuito de control y de evaluación
10
\tabul
Línea de corte
11
\tabul
Objeto
12
\tabul
Zona de baja resolución
13
\tabul
Zona de iluminación
14
\tabul
Zona de iluminación
15
\tabul
Interfaz de datos
16
\tabul
Aparato externo
17
\tabul
Fase de compresión
18
\tabul
Punto nodal de la red
19
\tabul
Ordenador de control
\global\parskip0.000000\baselineskip

Claims (21)

1. Dispositivo para la detección de objetos (1, 2, 3) móviles a través del campo de visión de un sensor óptico (6, 6', 6'') con una instalación para la selección de zonas de interés, que solamente están asociadas en cada caso a una parte del campo de visión del sensor óptico (6, 6', 6''), caracterizado porque un medidor de distancia (5) está integrado en el sensor óptico (6, 6', 6'') o está conectado delante o detrás de éste en la dirección de movimiento (A) de los objetos (1, 2, 3), porque el medidor de distancia (5) está diseñado para la determinación de las distancias de las superficies de los objetos dirigidas hacia el medidor de distancia (5) y está acoplado con un circuito de evaluación (9, 9', 9'') para el cálculo de las zonas de interés en función de las distancias calculadas, porque el circuito de evaluación (9, 9', 9'') está diseñado para el procesamiento solamente de aquellos datos de imagen del sensor (6, 6' 6''), que están asociados a las zonas de interés, y porque el circuito de evaluación (9, 9', 9'') está diseñado para la determinación de la resolución o del factor de ampliación de las imágenes detectadas por el sensor óptico (6, 6', 6'').
2. Dispositivo de acuerdo con la reivindicación 1, caracterizado porque el circuito de evaluación (9, 9', 9'') está diseñado para la determinación de la geometría de los objetos (1, 2, 3) que se realiza en función de las distancias calculadas.
3. Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el circuito de evaluación (9, 9', 9'') está diseñado para la determinación de los volúmenes de los objetos (1, 2, 3) que se realiza en función de las distancias calculadas.
4. Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque está prevista una instalación de enfoque de la cámara impulsada en función de las distancias calculadas.
5. Dispositivo para la detección de objetos (1, 2, 3) móviles a través del campo de visión de un sensor óptico (6, 6', 6'') con una instalación para la selección de zonas de interés, que solamente están asociadas en cada caso a una parte del campo de visión del sensor óptico (6, 6', 6''), caracterizado porque un medidor de distancia (5) está integrado en el sensor óptico (6, 6', 6'') o está conectado delante o detrás de éste en la dirección de movimiento (A) de los objetos (1, 2, 3), porque el medidor de distancia (5) está diseñado para la determinación de las distancias de las superficies de los objetos dirigidas hacia el medidor de distancia (5) y está acoplado con un circuito de evaluación (9, 9', 9'') para el cálculo de las zonas de interés en función de las distancias calculadas, porque el circuito de evaluación (9, 9', 9'') está diseñado para el procesamiento solamente de aquellos datos de imagen del sensor (6, 6' 6''), que están asociados a las zonas de interés, y porque están previstos al menos dos sensores ópticos (6, 6', 6''), que detectan los objetos móviles (1, 2, 3) desde diferentes ángulos de visión.
6. Dispositivo de acuerdo con la reivindicación 5, caracterizado porque los ejes ópticos de los sensores ópticos (6, 6', 6'') están perpendiculares entre sí.
7. Dispositivo de acuerdo con una de las reivindicaciones 5 ó 6, caracterizado porque los ejes ópticos de los sensores ópticos (6, 6', 6'') se extienden perpendiculares o inclinados con respecto a la dirección del movimiento de los objetos (1, 2, 3).
8. Dispositivo de acuerdo con una de las reivindicaciones 5 a 7, caracterizado porque el eje óptico de un sensor óptico (6, 6', 6'') se extiende perpendicularmente al plano de transporte (4), sobre el que se mueven los objetos (1, 2, 3).
9. Dispositivo de acuerdo con una de las reivindicaciones 5 a 8, caracterizado porque los sensores ópticos (6, 6', 6'') están conectados a través de una red de datos con uno o varios circuitos de evaluación (9, 9', 9'').
10. Dispositivo de acuerdo con una de las reivindicaciones 5 a 9, caracterizado porque a cada sensor óptico (6, 6', 6'') está asociado en cada caso un circuito de evaluación (9, 9', 9'').
11. Dispositivo de acuerdo con una de las reivindicaciones 9 o 10, caracterizado porque los sensores ópticos (6, 6', 6'') están conectados a través de una red de datos en forma de estrella con el o los circuitos de evaluación (9, 9', 9'').
12. Dispositivo de acuerdo con una de las reivindicaciones 9 ó 10, caracterizado porque, respectivamente, en una derivación de la red se encuentran un sensor óptico (6, 6', 6'') y un circuito de evaluación (9, 9', 9'') asociado al mismo, estando conducidas las salidas de los circuitos de evaluación (9, 9', 9'') sobre un punto nodal común de la red, que está conectado de nuevo con una estación de procesamiento posterior (16).
13. Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el circuito de evaluación (9, 9', 9'') está diseñado para la decodificación automática de caracteres escritos y/o para la representación óptica de zonas de imagen con caracteres escritos que no pueden ser decodificados de forma automática.
14. Dispositivo de acuerdo con una de las reivindicaciones 5 a 13, caracterizado porque al menos un circuito de evaluación (9, 9', 9'') está diseñado para la representación óptica de zonas de imagen suministradas desde diferentes sensores ópticos (6, 6', 6'').
15. Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el circuito de evaluación (9, 9', 9'') presenta un medio de entrada para la entrada manual de caracteres escritos representados visualmente.
16. Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el sensor óptico (6, 6', 6'') está configurado como cámara, especialmente cámara de líneas o cámara de matriz o como escáner de código de barras.
17. Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el sensor óptico (6, 6', 6'') y/o el circuito de evaluación (9, 9', 9'') presenta una interfaz de datos (15) para la transmisión de los datos, relacionados con zonas de interés, a un aparato externo (16).
18. Dispositivo de acuerdo con la reivindicación 17, caracterizado porque el sensor óptico (6, 6', 6'') y/o el circuito de evaluación (9, 9', 9'') están configurados con una fase de compresión (17) para la compresión de los datos, relacionados con zonas de interés, que deben transmitirse a través de la interfaz de datos (15).
19. Dispositivo de acuerdo con la reivindicación 18, caracterizado porque la fase de compresión (17) está diseñada para la compresión de datos de imagen, relacionados con zonas de interés, ya durante la detección de la imagen respectiva.
20. Procedimiento para la detección de objetos (1, 2, 3) móviles a través del campo de visión de un sensor óptico (6, 6', 6'') en las zonas de interés, que están asociados en cada caso solamente a una parte del campo de visión del sensor óptico (6, 6', 6''), caracterizado porque con un medidor de distancia (5), que está integrado en el sensor óptico (6, 6', 6''), y que está conectado delante o detrás de este sensor óptico en la dirección del movimiento (A) de los objetos (1, 2, 3), se determinan las distancias de las superficies de objetos dirigidas hacia el medidor de distancia (5), después de lo cual por medio de un circuito de evaluación (9, 9', 9'') se calculan las zonas de interés en función de las distancias calculadas, siendo calculada por el circuito de evaluación (9, 9', 9'') la resolución o el factor de amplificación de las imágenes detectadas por el sensor óptico (6, 6', 6''), y procesando el circuito de evaluación (9, 9', 9'') solamente aquellos datos de imagen del sensor (6, 6', 6''), que están asociados a las zonas de interés.
21. Procedimiento para la detección de objetos (1, 2, 3) móviles a través del campo de visión de un sensor óptico (6, 6', 6'') en las zonas de interés, que están asociados en cada caso solamente a una parte del campo de visión del sensor óptico (6, 6', 6''), caracterizado porque al menos dos sensores ópticos (6, 6', 6'') detectan los objetos móviles (1, 2, 3) desde diferentes ángulos de visión, porque por medio de un medidor de distancia (5) se determinan las distancias de las superficies de objetos que están dirigidas hacia el medidor de distancia (5), porque se calculan por un circuito de evaluación (9, 9', 9'') zonas de interés en función de las distancias determinadas, porque el circuito de evaluación (9, 9', 9'') solamente procesa aquellos datos de imagen de los sensores (6, 6', 6''), que están asociados a las zonas de interés.
ES05020110T 2004-10-11 2005-09-15 Dispositivo y procedimiento para la vigilancia de objetos en movimiento. Active ES2289633T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102004049482A DE102004049482A1 (de) 2004-10-11 2004-10-11 Vorrichtung zur Überwachung von bewegten Objekten
DE102004049482 2004-10-11
EP05010273 2005-05-11
EP05010273A EP1645838B1 (de) 2004-10-11 2005-05-11 Vorrichtung und Verfahren zur Überwachung von bewegten Objekten
EP05020110A EP1645839B1 (de) 2004-10-11 2005-09-15 Vorrichtung und Verfahren zur Überwachung von bewegten Objekten

Publications (1)

Publication Number Publication Date
ES2289633T3 true ES2289633T3 (es) 2008-02-01

Family

ID=35149683

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05020110T Active ES2289633T3 (es) 2004-10-11 2005-09-15 Dispositivo y procedimiento para la vigilancia de objetos en movimiento.

Country Status (7)

Country Link
US (1) US7721964B2 (es)
EP (1) EP1645839B1 (es)
AT (1) ATE370387T1 (es)
DE (1) DE502005001232D1 (es)
DK (1) DK1645839T3 (es)
ES (1) ES2289633T3 (es)
PL (1) PL1645839T3 (es)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE502007002821D1 (de) * 2007-08-10 2010-03-25 Sick Ag Aufnahme entzerrter Bilder bewegter Objekte mit gleichmässiger Auflösung durch Zeilensensor
DE102007048679A1 (de) * 2007-10-10 2009-04-16 Sick Ag Vorrichtung und Verfahren zum Aufnehmen von Bildern von auf einer Fördereinrichtung bewegten Objekten
DE102010011577A1 (de) 2009-03-25 2010-10-14 Heidelberger Druckmaschinen Ag Winkelabhängige Farbwertkorrektur
US9104935B1 (en) 2010-12-30 2015-08-11 Cognex Corporation Mark reader configured to prioritize images
IT1404187B1 (it) * 2011-02-28 2013-11-15 Datalogic Automation Srl Metodo per l'identificazione ottica di oggetti in movimento
US20120327218A1 (en) * 2011-06-21 2012-12-27 Microsoft Corporation Resource conservation based on a region of interest
US8740081B2 (en) * 2011-11-03 2014-06-03 Cognex Corporation Method and apparatus for ordering code candidates in image for decoding attempts
US9367725B2 (en) 2011-11-03 2016-06-14 Cognex Corporation Method and apparatus for performing different decoding algorithms in different locations
EP2693364B1 (de) 2012-07-31 2014-12-17 Sick Ag Kamerasystem und Verfahren zur Erfassung eines Stromes von Objekten
EP2693363B1 (de) 2012-07-31 2015-07-22 Sick Ag Kamerasystem und Verfahren zur Erfassung eines Stromes von Objekten
DK2693362T3 (da) * 2012-07-31 2015-07-27 Sick Ag Detekteringssystem til montage på et transportbånd
CN109205231B (zh) * 2012-11-21 2021-06-25 英特里格拉特德总部有限公司 用于分选系统的动态卸料补偿
US9305231B2 (en) 2013-08-01 2016-04-05 Cognex Corporation Associating a code with an object
KR102273027B1 (ko) 2014-06-09 2021-07-05 삼성전자주식회사 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치
EP3574647B1 (en) * 2017-01-25 2022-10-26 Carrier Corporation Line array detection and imaging system
EP3454298B1 (de) 2017-09-06 2019-08-07 Sick AG Kameravorrichtung und verfahren zur erfassung eines stromes aus objekten
US10809357B2 (en) 2017-10-03 2020-10-20 Datalogic Usa, Inc. Determining object attributes using photoelectric sensors
DE102017128331A1 (de) * 2017-11-29 2019-05-29 Ioss Intelligente Optische Sensoren & Systeme Gmbh Bildaufnehmersystem
EP3663963B1 (de) 2018-12-04 2021-03-10 Sick Ag Lesen von optischen codes
US10846551B2 (en) * 2019-02-06 2020-11-24 Apical Limited Video data processing
DK3708265T3 (da) * 2019-03-11 2021-07-12 Sick Ag Sorteringsdetektionssystem til detektion af et objekt, der passerer gennem én af en flerhed af åbninger
EP3812953B1 (de) * 2019-10-22 2021-09-29 Sick Ag Codeleser und verfahren zum lesen von optischen codes
DE102020112430B4 (de) * 2020-05-07 2021-12-23 Sick Ag Kamera und Verfahren zur Erfassung von Objekten
DE102020113183B4 (de) * 2020-05-15 2021-12-16 Sick Ag Kamera und Verfahren zur Erfassung von bewegten Objekten
DE102021109078B3 (de) 2021-04-12 2022-11-03 Sick Ag Kameravorrichtung und Verfahren zur Erfassung eines bewegten Stromes von Objekten

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3942932A1 (de) * 1989-12-23 1991-06-27 Licentia Gmbh Verfahren zum verteilen von paketen o. ae.
IL107265A0 (en) 1993-10-12 1994-01-25 Galai Lab Ltd Parcel sorting system
DE19532842C1 (de) * 1995-09-05 1996-12-19 Ibm Bildaufnahmesystem
FR2746330B1 (fr) * 1996-03-22 1998-04-17 Alcatel Postal Automation Syst Systeme d'acquisition d'images pour le tri de paquets
DE19639854A1 (de) 1996-09-27 1998-06-10 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur Erfassung von auf potentiell großflächigen Gegenständen aufgebrachten, optisch erfaßbaren Informationen
JP3631576B2 (ja) * 1997-01-27 2005-03-23 コニカミノルタフォトイメージング株式会社 デジタルカメラ
DE19727459A1 (de) 1997-06-27 1999-01-07 Sick Ag Opto-elektronische Sensoranordnung mit mehreren in einer Zeile oder einem Array angeordneten photoempfindlichen Elementen
DE19840455A1 (de) * 1998-09-04 2000-03-09 Sick Ag Verfahren zum Betreiben eines Strichcodelesers
DE19946476A1 (de) 1999-09-28 2001-03-29 Sick Ag Verfahren und Vorrichtung zum Überwachen eines Schutzbereichs
US6603563B1 (en) 2000-04-05 2003-08-05 Accu-Sort Systems, Inc. Apparatus for determining measurements of an object utilizing negative imaging
FR2812226B1 (fr) * 2000-07-25 2002-12-13 Mannesmann Dematic Postal Automation Sa Procede de traitement d'objets postaux de grande taille dans une installation de tri
DE10113641B4 (de) 2001-03-21 2005-05-19 Leuze Electronic Gmbh & Co Kg Optoelektronische Vorrichtung
DE10126086A1 (de) 2001-05-29 2002-12-05 Sick Ag Optoelektronischer Sensor
DE10148062A1 (de) 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE10154861A1 (de) 2001-11-08 2003-05-22 Ibeo Automobile Sensor Gmbh Verfahren zur Bereitstellung von Bildinformationen
KR100456628B1 (ko) * 2001-12-28 2004-11-10 한국전자통신연구원 물류 정보 자동식별 처리시스템 및 그 방법
JP4251312B2 (ja) 2002-03-08 2009-04-08 日本電気株式会社 画像入力装置
DE10229408B4 (de) 2002-06-29 2006-09-07 Leuze Electronic Gmbh & Co Kg Optischer Sensor
DE10231178B4 (de) 2002-07-10 2008-12-04 Sick Ag Optoelektronischer Sensor
DE10260201A1 (de) * 2002-12-20 2004-07-01 Sick Ag Verfahren und Vorrichtung zur Erfassung von auf einem Fördermittel bewegten Objekten mittels eines optoelektronischen Sensors
DE10304054B4 (de) 2003-02-01 2005-03-03 Leuze Lumiflex Gmbh + Co. Kg Optischer Sensor
DE102004008925B4 (de) 2003-02-28 2006-04-13 Leuze Electronic Gmbh & Co Kg Optoelektronische Vorrichtung

Also Published As

Publication number Publication date
EP1645839B1 (de) 2007-08-15
PL1645839T3 (pl) 2007-12-31
US7721964B2 (en) 2010-05-25
DK1645839T3 (da) 2007-10-29
EP1645839A1 (de) 2006-04-12
ATE370387T1 (de) 2007-09-15
DE502005001232D1 (de) 2007-09-27
US20060076415A1 (en) 2006-04-13

Similar Documents

Publication Publication Date Title
ES2289633T3 (es) Dispositivo y procedimiento para la vigilancia de objetos en movimiento.
ES2309615T3 (es) Dispositivo y procedimiento para la vigilancia de objetos en movimiento.
US8523076B2 (en) Omnidirectional laser scanning bar code symbol reader generating a laser scanning pattern with a highly non-uniform scan density with respect to line orientation
ES2820451T3 (es) Lector de código de barras de obtención de imagen con diodo emisor de luz para generar un campo de visión
CN100412501C (zh) 图像获取设备
US8220714B2 (en) Scanner
ES2593800T3 (es) Procedimiento y patrón de luz para medir la altura o el curso de la altura de un objeto
US8079524B2 (en) Imaging-based scanner including border searching for image acquisition
ES2927322T3 (es) Terminal de punto de venta
CN111144148B (zh) 集成了照明组件的手持式id读码系统
US10198647B2 (en) Compact imaging module with range finder
US11630962B1 (en) On-axis aimer for vision system and multi-range illuminator for same
ES2936433A2 (es) Lectores de códigos de barras con una o varias cámaras 3D
CN104272321A (zh) 通过图形捕捉来电光读取直接部件标记记号的设备和方法
ES2894869T3 (es) Sistema de inspección de superficies y método de inspección de superficies
CN103620618A (zh) 从售卖点工作站中的成像器分割的单独照明的子视场上的单独曝光控制
US20150332084A1 (en) Device for biometrically controlling a face surface
ES2645504T3 (es) Determinación de al menos una característica de un vehículo
CN101852857A (zh) 测量装置和自动跟踪方法
JP2016145791A (ja) 三次元位置計測システム
US20110298586A1 (en) Locating Device
JP2010145199A (ja) バーコードを利用した認識方法および認識システム、ならびに、バーコードを利用した制御方法および制御システム
ES2650632B1 (es) Sistema y procedimiento para combinar fragmentos de códigos de barras de un símbolo de código de barras, para ser leído en un puesto de trabajo de presentación, basado en la toma de imágenes
KR102112721B1 (ko) 이동 대상체의 영상 처리 시스템 및 방법
CN101563639A (zh) 瞄准设备