ES2521598T3 - Dispositivo y procedimiento para la detección de la posición de un objeto en una máquina herramienta - Google Patents

Dispositivo y procedimiento para la detección de la posición de un objeto en una máquina herramienta Download PDF

Info

Publication number
ES2521598T3
ES2521598T3 ES11784460.5T ES11784460T ES2521598T3 ES 2521598 T3 ES2521598 T3 ES 2521598T3 ES 11784460 T ES11784460 T ES 11784460T ES 2521598 T3 ES2521598 T3 ES 2521598T3
Authority
ES
Spain
Prior art keywords
camera
support
machine tool
workpiece
processing means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11784460.5T
Other languages
English (en)
Inventor
Walter Kranitzky
Martin Schilcher
Gerhard MÜHLBAUER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Johannes Heidenhain GmbH
Original Assignee
Dr Johannes Heidenhain GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Johannes Heidenhain GmbH filed Critical Dr Johannes Heidenhain GmbH
Application granted granted Critical
Publication of ES2521598T3 publication Critical patent/ES2521598T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2428Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring existing positions of tools or workpieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

Dispositivo para la detección de la posición de un objeto en una máquina herramienta, con una cámara (3), que proporciona una imagen del objeto (2) y de un soporte del objeto (1), con el que está conectado el objeto (2) y cuya posición dentro de la máquina herramienta se conoce, con un primer medio de procesamiento para el reconocimiento de la posición del objeto (2) con relación a la cámara (3) con la ayuda de características geométricas el objeto (2) obtenidas a partir de la imagen, caracterizado por un segundo medio de procesamiento para el reconocimiento del soporte del objeto (1) con relación a la cámara con la ayuda de características geométricas del soporte del objeto (1) obtenidas a partir de la imagen, así como por un tercer medio de procesamiento para la determinación de la posición relativa entre el soporte del objeto (1) y el objeto (2) a partir de las posiciones relativa entre la cámara (3) y el objeto (2) o bien la cámara (3) y el soporte del objeto (1).

Description

5
10
15
20
25
30
35
40
45
50
55
E11784460
27-10-2014
DESCRIPCIÓN
Dispositivo y procedimiento para la detección de la posición de un objeto en una máquina herramienta
La invención se refiere a un dispositivo y a un procedimiento para la detección de la posición de un objeto en una máquina herramienta. Tales procedimientos son necesarios, por ejemplo, para calcular, después del empotramiento de una pieza de trabajo, la posición exacta de la pieza de trabajo dentro de la máquina herramienta. El conocimiento de esta posición es decisivo para una mecanización exacta de la pieza de trabajo, pero también, por ejemplo, para una supervisión de la colisión. A tal fin, no sólo debe calcularse la posición de la pieza de trabajo, sino también la posición de los medios de fijación, que se utilizan para la fijación de la pieza de trabajo.
Puesto que la fijación y la alineación de una pieza de trabajo en una máquina herramienta representa a menudo una parte considerable del tiempo de mecanización, es ventajoso que la detección de la posición exacta de la pieza de trabajo y de sus medios de fijación se consiga lo más rápidamente posible. A tal fin se conocen ya diferentes dispositivos o procedimientos, que se basan en la detección de la situación de fijación con la ayuda de cámaras. Así, por ejemplo, en el documento DE 11 2007 001 977 T5 se describe un procedimiento, en el que a partir de una imagen de la cámara de una pieza de trabajo se extrae un modelo de la pieza de trabajo. Los procedimientos conocidos a tal fin, como por ejemplo la localización de cantos, se representan detalladamente. El modelo es comparado a continuación con objetos conocidos para identificar el objeto presente en cada caso. A partir de la imagen de la cámara se calcular la posición y la situación posteriores del objeto y se utilizan, por ejemplo, para una supervisión de la colisión.
Se conoce también a partir del documento DE 10 2005 022 344 A1 determinar la posición de una pieza de trabajo al menos aproximadamente con la ayuda de parámetros geométricos obtenidos a partir de una imagen de la cámara, los cuales son comparados con un modelo de la pieza de trabajo. La información obtenida de esta manera se utiliza como punto de partida para una medición todavía más exacta por medio de un dispositivo de exploración, o también directamente para determina runa matriz, que describe el desplazamiento y/o rotación de la pieza de trabajo frente a un punto de referencia de la máquina herramienta. De esta manera, se posibilita una mecanización exacta de la pieza de trabajo, aunque la situación de fijación real no corresponda exactamente a la situación de fijación prevista por el programa NC.
En el Artículo “Position-Based Visual Servoing in Industrial Multirobot Cells Using a Hybrid Camera Configuration” (Vinzenzo Lippiello y col. IEEE TRANSACTIONS ON ROBOTICS, 20070201 IEEE SERVICE CENTER, PICATAWAY, NJ, US – ISSN 1552-3098, Vol. 23, Nº 1, páginas: 73 – 86) se describe la determinación de la posición de una pieza de trabajo con la ayuda de características, que son extraídas desde una imagen de la cámara.
En los procedimientos conocidos aquí es un inconveniente que además de una calibración intrínseca de la cámara, en la que los parámetros ópticos de la cámara son calculados para la consideración posterior, es necesaria también una calibración extrínseca, en la que se calculan la posición y la alineación de la cámara. Esta calibración extrínseca debe repetirse en este caso en oposición a la calibración intrínseca a menudo y, dado el caso, antes de cada medición, cuando la cámara no está fijada totalmente rígida con relación al sistema de coordenadas de la máquina herramienta. Esto significa un gato muy alto o bien durante el montaje de la cámara o para la calibración externa regular de la cámara.
El cometido de la invención de crear un dispositivo y un procedimiento, que posibilitan una localización simplificada de un objeto en una máquina herramienta por medio de una cámara, siendo reducido el gasto para el montaje y la calibración de la cámara.
Esto se consigue a través de un dispositivo de acuerdo con la reivindicación 1 o bien a través de un procedimiento de acuerdo con la reivindicación independiente del procedimiento.
Los detalles ventajosos se deducen a partir de las reivindicaciones dependientes respectivas.
Se describe un dispositivo o bien un procedimiento para la detección de la posición de un objeto en una máquina herramienta. En este caso, se emplea una cámara, que suministra una imagen del objeto y de un soporte del objeto, con el que está conectado el objeto y cuya posición se conoce dentro de la máquina herramienta. Un primer medio de procesamiento posibilita el reconocimiento de la posición del objeto con relación a la cámara con la ayuda de características geométricas del objeto obtenidas a partir de la imagen. Un segundo medio de procesamiento sirve para el reconocimiento de la posición del soporte del objeto con relación a la cámara con la ayuda de características geométricas del soporte del objeto obtenidas a partir de la imagen. Un tercer medio de procesamiento sirve finalmente para la determinación de la posición relativa entre el soporte del objeto y el objeto a partir de las posiciones relativas entre la cámara y el objeto o bien la cámara y el soporte del objeto.
Por lo tanto, no es necesaria una calibración extrínseca de la cámara, puesto que la posición y la alineación de la cámara no son importantes para un cálculo de las posiciones relativas. En la imagen de la cámara solamente debe reconocerse en cada caso una sección suficientemente grande del objeto y del soporte del objeto, que posibilita un
5
10
15
20
25
30
35
40
45
50
55
E11784460
27-10-2014
reconocimiento automático. Por lo tanto, incluso cuando la cámara está montada en un lugar, en el que se mueve a través de influencias mecánicas o térmicas, no se modifica la posición relativa determinada en cada caso entre el objeto y el soporte del objeto. De esta manera, por ejemplo una pared de limitación del espacio interior de la máquina herramienta puede servir como lugar de montaje de la cámara, aunque aquí se trate de un simple revestimiento de chapa, que se puede doblar de forma relativamente fácil y en este caso se puede modificar claramente sobre todo la alineación de la cámara.
En el soporte del objeto se puede tratar de la mesa de la pieza de trabajo, sobre la que está dispuesto directamente el objeto, por lo tanto, por ejemplo, la pieza de trabajo o un medio de fijación. Tales mesas de piezas de trabajo presentan a menudo estructuras muy significativas y definidas de ranuras en T o taladros, cuyos cantos se pueden reconocer bien en la imagen de la cámara, y que, por lo tanto, son bien adecuados para el procesamiento automático de imágenes.
Pero como soporte del objeto en el sentido de la invención pude servir también otro componente de la máquina herramienta, cuya posición se conoce dentro de la máquina herramienta y que está conectado de manera definida con la mesa de la pieza de trabajo, sobre la que está dispuesta directamente la pieza de trabajo. Así, por ejemplo, se podría utilizar un puente que soporta la mesa de la pieza de trabajo como soporte del objeto en el sentido de la invención, o cualquier otra estructura marcada de la máquina herramienta, cuando se conoce su posición, y desde la que existe una conexión definida con la mesa de la pieza de trabajo.
En el objeto se puede tratar de una pieza de trabajo, que debe mecanizarse con una herramienta de la máquina herramienta. La herramienta se mueve en este caso sobre una trayectoria previamente establecida en un programa NC con relación a la pieza de trabajo y en este caso erosiona material desde la pieza de trabajo. Pero en el objeto se puede tratar también de un medio de fijación, con el que se retiene la pieza de trabajo, por lo tanto, por ejemplo de un tornillo de banco.
A partir del punto de mecanización de la pieza de trabajo (el Tool Center Point o TCP) se define la posición entre la herramienta y la pieza de trabajo con frecuencia a través de la llamada cadena cinemática. En este caso, se tiene en cuenta la geometría de la máquina herramienta lo mismo que la posición de cada eje de la máquina herramienta. De este modo, en una máquina fresadora de 5 ejes se establece la posición de la herramienta de acuerdo con la posición y la alineación con relación a mesa de la pieza de trabajo en cada momento a través de la cadena cinemática. La medición de una pieza de trabajo empotrada nueva sirve en último término para integrar también esta pieza de trabajo en la cadena cinemática, para que se pueda posicionar y guiar la herramienta de la manera establecida en el programa NC con relación a la pieza de trabajo. Para ello es suficiente para calcular la posición y la alineación de la pieza de trabajo con relación a cualquier punto de la cadena cinemática ya mencionada, puesto que este punto está enlazado, en efecto, de una manera definida, con la superficie de la mesa de la pieza de trabajo. En el sentido de la invención, el concepto de soporte del objeto debe entenderse, por lo tanto, como la zona de la máquina herramienta, cuya posición y alineación con relación a la herramienta se conoce, como por ejemplo todos los componentes de la cadena cinemática de la máquina herramienta.
Puesto que para la fijación de una pieza de trabajo en la mesa de la pieza de trabajo son necesarios medios de fijación, que no deben mecanizarse, pero que deben tenerse en cuenta, por ejemplo, para una supervisión de la colisión, estos medios de fijación pueden considerarse también como objeto, cuya posición y orientación deben calcularse en la cadena cinemática de la máquina herramienta. Por lo tanto, los medios de fijación y las piezas de trabajo son objetos en el sentido de la invención.
Tanto el objeto como también el soporte del objeto deben ser conocidos con respecto a la forma y el tamaño, para poder deducir a partir de la imagen de la cámara la posición relativa respectiva. Por lo tanto, los medios de procesamiento tienen acceso a zonas de la memoria, en las que están depositadas estas informaciones geométricas del objeto respectivo y del soporte del objeto.
Otras ventajas así como detalles de la presente invención se deducen a partir de la descripción siguiente de una forma de realización preferida con la ayuda de las figuras. En este caso:
La figura 1 muestra un fragmento de una máquina herramienta, en el que se representa la posición relativa entre la cámara y la pieza de trabajo o bien la cámara y la mesa de la pieza de trabajo.
La figura 2 muestra un fragmento de una máquina herramienta, en el que se representa la posición relativa entre la pieza de trabajo y la mesa de la pieza de trabajo.
En la figura 1 se representa un fragmento de una máquina herramienta. Se muestra un soporte del objeto en forma de una mesa de la pieza de trabajo 1, sobre la que está dispuesto un objeto en forma de una pieza de trabajo 2.
Una cámara 3 fijada, por ejemplo, en la carcasa de la máquina herramienta proporciona una imagen, que muestra tanto la mesa de la pieza de trabajo 1 como también la pieza de trabajo 2, o al menos en cada caso un fragmento de la misma, que es suficientemente grande para calcular a partir de ello de forma automática la posición y la
5
10
15
20
25
30
35
40
45
50
55
E11784460
27-10-2014
orientación de la mesa de la pieza de trabajo 1 y de la pieza de trabajo 2.
Esta imagen es transmitida a un control 4, que verifica al menos el ciclo del procedimiento de acuerdo con la invención. Con preferencia, en este caso se trata de un control numérico, que asume también todos los otros procesos de control como la ejecución de un programa-NC en la máquina herramienta.
La cámara 3 tiene una posición, que está establecida a través del origen del sistema de coordenadas X-Y-Z y una alineación, que está establecida a través de los ejes de coordenadas X, Y y Z. Así, por ejemplo, la dirección de la visión de la cámara 3 define sin limitación la generalidad del eje-Z del sistema de coordenadas de la cámara 3.
La mesa de la pieza de trabajo 1 tiene la posición, que está establecido por el origen del sistema de coordenadas X1’-Y1’-Z1’, y una alineación, que está establecida por los ejes de coordenadas X1’, Y1’, Z1’. Así, por ejemplo, una vertical que incide sobre la mesa 1 define sin limitación de la generalidad el eje-Z1’ del sistema de coordenadas de la mesa 1. Los cantos de la mesa determina los otros ejes de coordenadas X1’ e Y1’, el origen está en una esquina de la mesa 1.
La pieza de trabajo 2 tiene una posición, que está establecida por el origen del sistema de coordenadas X1’-Y1’-Z1’, y una alineación, que está establecida por los ejes de coordenadas X1’, Y1’, Z1’. Así, por ejemplo, los cantos de la pieza de trabajo 2 en forma de paralelepípedo definen sin limitación de la generalidad las direcciones de los ejes de coordenadas X2’, Y2’, Z2’ de la pieza de trabajo 2.
La selección de los sistemas de coordenadas de la mesa de la pieza de trabajo 1, la pieza de trabajo 2 y la cámara 3 en la figura 1 se puede realizar también totalmente de otra manera y sólo desde puntos de vista prácticos. Para las mesas 1 y pieza de trabajo 2 formadas de otra manera pueden ser más adecuados otros sistemas de coordenadas en el sentido de una representación más sencilla de la posición y de la orientación.
A través de métodos de la evaluación de imágenes, como se describen, entre otros, en el estado de la técnica citado, un primer medio de procesamiento calcula en una primera etapa en el control 4 la posición de la pieza de trabajo 2 con relación a la cámara 3. Esto se indica en la figura 1 por medio de un vector de translación T2 desde el origen de la cámara 3 hasta el origen de la pieza de trabajo 2, así como a través de los ejes de coordenadas X2, Y2, Z2, que se encuentran paralelamente a los ejes de coordenadas X, Y, Z de la cámara 3. A través del vector de translación T2 y de la matriz giratoria D2, que transfiere el sistema de coordenadas X2’-Y2’-Z2’ al sistema de coordenadas X2-Y2-Z2, se establecen el desplazamiento y la rotación de la pieza de trabajo 2 con relación a la cámara 3. T2 y D2 se pueden reunir también en una transformación homogénea H2 = [D2 | T2], ampliando la matriz giratoria D2 con una columna adicional, que recibe los componentes del vector de translación T2. Esta transformación homogénea H2 contiene la información completa sobre el desplazamiento y rotación entre la cámara 3 y la pieza de trabajo 2.
El primer medio de procesamiento, que está configurado con preferencia como algoritmo de software en el control 4, accede a tal fin a una zona de la memoria, en la que están depositadas informaciones geométricas como forma y tamaño de objetos posibles, por lo tanto pieza de trabajo 2 posibles o también medios de fijación. A través de una comparación de las informaciones almacenadas con las informaciones obtenidas a partir de la imagen de la cámara, en combinación con la calibración intrínseca de la cámara 3 se pueden deducir los objetos respectivos y su posición relativa con relación a la cámara 3.
Entonces en una segunda etapa un segundo medio de procesamiento en el control 4 calcula la posición de la mesa 1 con relación a la cámara 3. Esto se indica en la figura 1 por medio de un vector de translación T1 desde el origen de la cámara 3 hasta el origen de la mesa 1 así como a través de los ejes de coordenadas X1, Y1, Z1, que se encuentran paralelamente a los ejes de coordenadas X, Y, Z de la cámara. A través del vector de translación T1 y una matriz giratoria D1, que transfiere el sistema de coordenadas X1’-Y1’-Z1’ al sistema de coordenadas X1-Y1-Z1, se establecen el desplazamiento y la rotación de la mesa 1 con relación a la cámara 3. T1 y D1 se pueden reunir también en una transformación homogénea H1 = [D1 | T1], ampliando la matriz giratoria D1 con una columna adicional, que recibe los componentes del vector de translación T1. Esta transformación homogénea H1 contiene la información completa sobre el desplazamiento y rotación entre la cámara 3 y la pieza de trabajo 1.
El segundo medio de procesamiento, que está configurado con preferencia de la misma manera como algoritmo de software en el control 4, accede a tal fin a una zona de la memoria, en la que están depositadas informaciones geométricas de la mesa 1.A través de una comparación de las informaciones almacenadas con las informaciones obtenidas a partir de la imagen de la cámara, en combinación con la calibración intrínseca de la cámara 3 se puede deducir la posición relativa de la mesa 1 con relación a la cámara 3.
La secuencia de la primera y de la segunda etapas se puede intercambiar naturalmente, de la misma manera que la primera etapa y la segunda etapa se pueden realizar al mismo tiempo, cuando esto es posible tal vez a través de algoritmos que se ejecutan en paralelo para la evaluación de la imagen en el control 4.
En una tercera etapa se calcula ahora a través de un cálculo de las posiciones relativas entre la cámara 3 y la pieza
E11784460
27-10-2014
de trabajo 2 o bien la cámara 3 y la mesa de la pieza de trabajo 1 la posición relativa entre la pieza de trabajo 2 y la mesa de la pieza de trabajo 1. A través de la sustracción del vector de translación T1 determinado previamente a partir del vector de translación T2 determinado de la misma manera con anterioridad se obtiene el vector de translación T3, que muestra según el importe y la dirección el desplazamiento entre el origen de la mesa 1 y el
5 origen de la pieza de trabajo 2. La posición y la alineación de la cámara 3 no tienen ninguna importancia para el resultado.
De la misma manera, a partir de la rotación descrita a través de la matriz giratoria D1 entre la cámara 3 y la mesa 1 y la rotación descrita a través de la matriz giratoria D2 entre la cámara 3 y la pieza de trabajo 2 se deduce la rotación entre la mesa 1 y la pieza de trabajo 2. Expresado de otra manera, se calcula una matriz giratoria D3, que transfiere 10 el sistema de coordenadas X2’-Y2’-Z2’ de la pieza de trabajo 2 al sistema de coordenadas X2’’-Y2’’-Z2’’ y de esta manera lo alinea paralelamente al sistema de coordenadas X1’-Y1’-Z1’ de la mesa 1. A tal fin debe multiplicarse la matriz giratoria inversa D1.1 por la matriz giratoria D2, es decir, D3 = D1.1 * D2. Esta matriz giratoria D3 y el vector de translación T3, que transfieren conjuntamente el sistema de coordenadas X1’-Y1’-Z2’ al sistema de coordenadas X2’-Y2’-Z2’, contienen la información buscada sobre la posición y la alineación de la pieza de trabajo 2 con relación
15 a la mesa de la pieza de trabajo 1. De manera alternativa, también se puede calcular una transformación homogénea H3 = H1.1 * H2, que describe el desplazamiento y la rotación entre la mesa de la pieza de trabajo 1 y la pieza de trabajo 2 en una matriz. Es importante que T3 y D3 o bien H3 sean independientes de la alineación de la cámara 3 y, por lo tanto, no sea necesaria una calibración extrínseca de la cámara.
La pieza de trabajo 2 o también sus medios de fijación se pueden incorporar de esta manera en la cadena
20 cinemática de la máquina herramienta y se pueden tener en cuenta, por ejemplo, para una supervisión de la colisión, aunque la posición exacta de la cámara no se conozca y se pueda modificar también de una medición a la siguiente.

Claims (11)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    E11784460
    27-10-2014
    REIVINDICACIONES
    1.-Dispositivo para la detección de la posición de un objeto en una máquina herramienta, con una cámara (3), que proporciona una imagen del objeto (2) y de un soporte del objeto (1), con el que está conectado el objeto (2) y cuya posición dentro de la máquina herramienta se conoce, con un primer medio de procesamiento para el reconocimiento de la posición del objeto (2) con relación a la cámara (3) con la ayuda de características geométricas el objeto (2) obtenidas a partir de la imagen, caracterizado por un segundo medio de procesamiento para el reconocimiento del soporte del objeto (1) con relación a la cámara con la ayuda de características geométricas del soporte del objeto (1) obtenidas a partir de la imagen, así como por un tercer medio de procesamiento para la determinación de la posición relativa entre el soporte del objeto (1) y el objeto (2) a partir de las posiciones relativa entre la cámara (3) y el objeto (2) o bien la cámara (3) y el soporte del objeto (1).
  2. 2.-Dispositivo de acuerdo con la reivindicación 1, caracterizado porque el primer medio de procesamiento dispone de una zona de memoria, en la que están registradas informaciones geométricas de diferentes objetos (2).
  3. 3.-Dispositivo de acuerdo con la reivindicación 2, caracterizado porque el primer medio de procesamiento está instalado para reconocer un objeto mostrado en la imagen de la cámara con la ayuda de las informaciones geométrica almacenadas.
  4. 4.-Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque en el objeto (2) se trata de una pieza de trabajo a mecanizar o de un medio de fijación para la fijación de una pieza de trabajo en un soporte de la pieza de trabajo (1).
  5. 5.-Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el segundo medio de procesamiento dispone de una zona de memoria, en la que están registradas informaciones geométricas del soporte del objeto (1).
  6. 6.-Dispositivo de acuerdo con una de las reivindicaciones 2, 3 ó 5, caracterizado porque las informaciones geométricas están presentes en forma de un modelo – CAD o como cámara de formación de imágenes.
  7. 7.-Dispositivo de acuerdo con una de las reivindicaciones anteriores, caracterizado porque el soporte del objeto (1) es componente de una cadena cinemática de la máquina herramienta, de manera que su posición con respecto a una herramienta de mecanización se conoce en un control (4) de orden superior.
  8. 8.-Dispositivo de acuerdo con la reivindicación 7, caracterizado porque la cámara (3) está fijada en una parte de la máquina herramienta, que no es componente de la cadena cinemática de la máquina herramienta, de manera que la posición de la cámara con relación a los componentes de la cadena cinemática es indefinida.
  9. 9.-Procedimiento para la detección de la posición de un objeto en una máquina herramienta por medio de una cámara (3), que suministra una imagen del objeto (2) y del soporte del objeto (1), con el que está conectado el objeto
    (2) y cuya posición dentro de la máquina herramienta se conoce, en el que un primer medio de procesamiento calcula la posición del objeto con relación a la cámara (3) con la ayuda de características geométricas del objeto (2), caracterizado porque un segundo medio de procesamiento calcula la posición del soporte del objeto (1) con relación a la cámara (3) con la ayuda de características geométricas del soporte del objeto (1) obtenidas a partir de la imagen y porque un tercer medio de procesamiento calcula la posición relativa entre el soporte del objeto (1) y el objeto (2) a partir de las posiciones relativas entre la cámara (3) y el objeto (2) o bien la cámara (3) y el soporte del objeto (1).
  10. 10.-Procedimiento de acuerdo con la reivindicación 9, caracterizado porque el primer medio de procesamiento compara las informaciones geométricas del objeto (2) obtenidas a partir de la imagen con las informaciones geométricas almacenadas en una biblioteca de objetos posibles, y en el caso de coincidencia suficiente de uno de estos objetos posibles se reconoce como el objeto (2) dispuesto realmente sobre el soporte del objeto.
  11. 11.-Procedimiento de acuerdo con una de las reivindicaciones 9 ó 10, caracterizado porque el soporte del objeto
    (1) es componente de una cadena cinemática de la máquina herramienta, de manera que se conoce su posición con respecto a una herramienta de mecanización en un control (4) de orden superior, y porque el objeto (2) propiamente dicho se convierte, después del cálculo de su posición relativa con respecto al soporte del objeto (1), en el componente de la cadena cinemática y de esta manera se conoce su posición con respecto a la herramienta de mecanización en el control (4) de orden superior.
    6
ES11784460.5T 2011-01-13 2011-11-10 Dispositivo y procedimiento para la detección de la posición de un objeto en una máquina herramienta Active ES2521598T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102011002625A DE102011002625A1 (de) 2011-01-13 2011-01-13 Vorrichtung und Verfahren zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine
DE102011002625 2011-01-13
PCT/EP2011/069839 WO2012095199A1 (de) 2011-01-13 2011-11-10 Vorrichtung und verfahren zum erfassen der lage eines objekts in einer werkzeugmaschine

Publications (1)

Publication Number Publication Date
ES2521598T3 true ES2521598T3 (es) 2014-11-13

Family

ID=44992897

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11784460.5T Active ES2521598T3 (es) 2011-01-13 2011-11-10 Dispositivo y procedimiento para la detección de la posición de un objeto en una máquina herramienta

Country Status (7)

Country Link
US (1) US9942524B2 (es)
EP (1) EP2663963B1 (es)
JP (1) JP5917563B2 (es)
CN (1) CN103270534B (es)
DE (1) DE102011002625A1 (es)
ES (1) ES2521598T3 (es)
WO (1) WO2012095199A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI515455B (zh) * 2011-11-10 2016-01-01 鴻海精密工業股份有限公司 星型探針量測校正系統及方法
KR101518843B1 (ko) * 2013-10-02 2015-05-13 한국기계연구원 초기원점 자율세팅을 위한 빌트인 타입 비전 계측 툴
KR101677255B1 (ko) * 2015-03-25 2016-11-17 건솔루션(주) 공작물 위치 자동 인식 장치 및 그 방법
US11054802B2 (en) * 2015-10-21 2021-07-06 Mitsubishi Electric Research Laboratories, Inc. System and method for performing operations of numerical control machines
CN105405141B (zh) * 2015-11-11 2018-05-29 佛山轻子精密测控技术有限公司 一种自动识别工件凹凸台边缘的方法
EP3345723A1 (de) * 2017-01-10 2018-07-11 Ivoclar Vivadent AG Verfahren zur steuerung einer werkzeugmaschine
EP3582041A1 (de) 2018-06-11 2019-12-18 Siemens Aktiengesellschaft Prüfung einer bearbeitungssituation vor ausführen der bearbeitung
CN111438565A (zh) * 2019-01-17 2020-07-24 武汉唯拓光纤激光工程有限公司 一种焊缝识别补偿装置及方法
US20230031088A1 (en) * 2021-07-27 2023-02-02 Vero Veria Coproration Hole forming device and machine unit thereof

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61219554A (ja) * 1985-03-27 1986-09-29 Amada Co Ltd クランプずれ量計測装置
US5208763A (en) * 1990-09-14 1993-05-04 New York University Method and apparatus for determining position and orientation of mechanical objects
JPH11121992A (ja) * 1997-10-08 1999-04-30 Fujitsu Ten Ltd 加工装置および電子回路素子の実装装置
JP2001183193A (ja) * 1999-12-27 2001-07-06 Seiko Epson Corp 流量測定装置及びこれを用いた薬液供給装置
JP2001277078A (ja) * 2000-03-30 2001-10-09 Brother Ind Ltd 被加工物のマーク検出装置,マーク検出方法,及び記憶媒体
JP2002108009A (ja) * 2000-09-27 2002-04-10 Konica Corp 画像形成方法
JP4004899B2 (ja) * 2002-09-02 2007-11-07 ファナック株式会社 物品の位置姿勢検出装置及び物品取出し装置
JP2004191335A (ja) * 2002-12-13 2004-07-08 Toyota Motor Corp 形状測定装置
JP4180469B2 (ja) * 2003-08-11 2008-11-12 東芝機械株式会社 工作機械の加工適否チェック方法
DE102005022344B4 (de) 2005-05-13 2008-06-19 Siemens Ag Vorrichtung und Verfahren zur Werkstückeinmessung
US8310534B2 (en) * 2006-09-01 2012-11-13 Mori Seiki Co., Ltd. Three-dimensional model data confirming method, and three-dimensional model data confirming apparatus

Also Published As

Publication number Publication date
DE102011002625A1 (de) 2012-07-19
EP2663963A1 (de) 2013-11-20
US9942524B2 (en) 2018-04-10
CN103270534B (zh) 2016-01-13
EP2663963B1 (de) 2014-10-15
WO2012095199A1 (de) 2012-07-19
JP5917563B2 (ja) 2016-05-18
US20130278751A1 (en) 2013-10-24
JP2014505600A (ja) 2014-03-06
CN103270534A (zh) 2013-08-28

Similar Documents

Publication Publication Date Title
ES2521598T3 (es) Dispositivo y procedimiento para la detección de la posición de un objeto en una máquina herramienta
US8917942B2 (en) Information processing apparatus, information processing method, and program
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
KR101636605B1 (ko) 적어도 3개의 이산 평면에 따른 머신 비젼 카메라의 보정을 위한 시스템 및 방법
Zhu et al. Measurement error analysis and accuracy enhancement of 2D vision system for robotic drilling
US20060269123A1 (en) Method and system for three-dimensional measurement
Jiang et al. A measurement method for robot peg-in-hole prealignment based on combined two-level visual sensors
US9448063B2 (en) Method and apparatus for detecting position of substrate transfer device, and storage medium
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
US11565421B2 (en) Robot and robot system
US10704891B2 (en) Method and apparatus for determining the 3D coordinates of an object
TW201621811A (zh) 三維掃描器校正系統及其校正方法
US20150253765A1 (en) Teaching jig, teaching system, and teaching method
KR102228835B1 (ko) 산업용 로봇의 측정 시스템 및 방법
TW201916238A (zh) 基板搬送裝置及求出基板搬送機器人與基板載置部之位置關係之方法
JP6031368B2 (ja) ワークとの相関位置決め方法
US9175950B2 (en) Position measurement
ES2267612T3 (es) Procedimiento para determinar la posicion de un sistema de coordenadas de una pieza de trabajo en el espacio 3d.
JP2008281418A (ja) 位置姿勢推定方法
Heikkilä et al. Calibration procedures for object locating sensors in flexible robotized machining
Bostelman et al. Comparison of registration methods for mobile manipulators
JP5351083B2 (ja) 教示点補正装置及び教示点補正方法
Hu et al. Kinematic calibration of manipulator using single laser pointer
CN112037190A (zh) 一种用于电器制冷剂管道的智能焊点检漏系统及检漏方法
JP2022017738A (ja) 画像処理装置