ES2935829T3 - Procedimiento de control de la superficie de una pieza mediante un sensor robótico - Google Patents

Procedimiento de control de la superficie de una pieza mediante un sensor robótico Download PDF

Info

Publication number
ES2935829T3
ES2935829T3 ES18726818T ES18726818T ES2935829T3 ES 2935829 T3 ES2935829 T3 ES 2935829T3 ES 18726818 T ES18726818 T ES 18726818T ES 18726818 T ES18726818 T ES 18726818T ES 2935829 T3 ES2935829 T3 ES 2935829T3
Authority
ES
Spain
Prior art keywords
sensor
calculation
control
verification
detection field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18726818T
Other languages
English (en)
Inventor
Yannick Caulier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Areva NP SAS
Original Assignee
Framatome SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Framatome SA filed Critical Framatome SA
Application granted granted Critical
Publication of ES2935829T3 publication Critical patent/ES2935829T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37206Inspection of surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37449Inspection path planner
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37453Simulate measuring program, graphical interactive generation of program
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37456Program proposes measuring points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40616Sensor planning, sensor configuration, parameters as function of task
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45066Inspection robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Manipulator (AREA)

Abstract

La invención se refiere a un método que comprende los siguientes pasos: determinación de una trayectoria de control del sensor (13) en relación con la superficie (3) según las características del robot (15) utilizando un modelo digital de la pieza (5) ; determinación de posiciones de control del sensor (13) a lo largo de la trayectoria; determinación, por cálculo, de un área (23) de la superficie (3) controlada por el sensor (13) en cada posición de control, y verificación, por cálculo, de que toda el área (23) está en un campo de detección del sensor (13), sin ningún elemento enmascarado, aprovechando las características del sensor (13); verificación, por cálculo, de que toda la superficie (3) es controlable por el sensor (13); y, si toda la superficie (3) no es controlable, adición de una posición de control, (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento de control de la superficie de una pieza mediante un sensor robótico
[0001] Generalmente, la presente invención se refiere a procedimientos de control no destructivo (CND) para piezas de formas complejas.
[0002] Más concretamente, la invención se refiere a un procedimiento para controlar la superficie de una pieza mediante un sensor movido por un robot.
[0003] El documento FR 2 940 449 A1 describe un procedimiento de control no destructivo de una pieza mecánica.
[0004] El documento WO 2014/145471 A1 describe un sistema robótico autónomo para inspeccionar superficies complejas.
[0005] Para piezas de formas complejas y grandes tamaños, es fundamental verificar que toda la superficie es controlable por el sensor, sin zona muerta. Esta verificación se realiza actualmente a través de los siguientes medios: - cálculo de la zona vista por el sensor, en una posición dada, realizado en software CAD;
- simulación de movimientos del sensor con la ayuda de una herramienta de simulación robótica;
- ensayos con el sensor en uno o más modelos.
[0006] Estos medios son poco adecuados para el cálculo de la superficie total cubierta por el sensor. La verificación tarda tanto más en realizarse cuando la geometría de la superficie es compleja y/o cuando el número de parámetros de adquisición del sensor es alto.
[0007] Por lo tanto, existe la necesidad de un procedimiento que permita tener en cuenta los parámetros de toda la cadena de inspección: el sensor CND, el robot portador y la pieza.
[0008] En este contexto, la invención se refiere a un procedimiento de control según la reivindicación 1.
[0009] Por lo tanto, el procedimiento prevé una primera fase de simulación en la que se verifica por cálculo si toda la superficie es controlable o no, teniendo en cuenta tanto la forma de la pieza, las características del robot como las características del sensor. Si algunos elementos o zonas no pueden controlarse por completo, se puede realizar una nueva simulación fácilmente, modificando las características del sensor, añadiendo posiciones de control o moviendo determinadas posiciones de control.
[0010] La simulación permite verificar muy fácilmente si es necesario modificar la trayectoria del sensor, y si el robot puede mover el sensor a lo largo de la nueva trayectoria sin interferir con la pieza.
[0011] También permite determinar qué características del sensor son las más adecuadas para una determinada pieza.
[0012] El procedimiento también puede tener una o más de las características según las reivindicaciones 2 a 8.
[0013] Otras características y ventajas de la invención se desprenderán de la descripción detallada que aparece a continuación, a título indicativo y en absoluto limitante, con referencia a las figuras adjuntas, entre las que: - la figura 1 es un diagrama de etapas del procedimiento de la invención;
- la figura 2 es un diagrama que ilustra las subetapas de la etapa de verificación por cálculo de que toda una zona está en un campo de detección del sensor, sin ningún elemento oculto;
- la figura 3 ilustra un ejemplo de una pieza de forma compleja para la que el procedimiento de la invención es muy adecuado;
- la figura 4 ilustra un sensor y un robot susceptibles de implementarse en el procedimiento de la invención;
- las figuras 5 y 6 ilustran dos trayectorias posibles del sensor para controlar la pieza de la figura 3;
- las figuras 7 a 9 ilustran esquemáticamente subetapas de la etapa de verificación por cálculo de que toda la zona está en un campo de detección del sensor, sin elemento oculto;
- la figura 10 muestra esquemáticamente las zonas cubiertas por el sensor en las diferentes posiciones de control, superpuestas a la pieza; y
- la figura 11 ilustra una variante de realización de la invención en la que el sensor está equipado con una iluminación fija, movida por el robot.
[0014] El procedimiento ilustrado en las figuras 1 y 2 está destinado a controlar la superficie de una pieza mediante un sensor movido por un robot.
[0015] El control tiene como objetivo, por ejemplo, detectar defectos en la superficie de la pieza o muy por debajo de la superficie de la pieza.
[0016] El procedimiento es especialmente adecuado para piezas y/o superficies de formas complejas.
[0017] Por ejemplo, la pieza es una pieza de un reactor nuclear, tal como una pieza interna de la vasija a presión que recibe el núcleo del reactor, un accesorio fijado a la vasija, una parte interna o externa de la vasija o incluso un elemento de un generador de vapor.
[0018] Por ejemplo, la pieza es un bloque de soporte en M, una curva de tubería entre el tanque y una tubería unida al tanque, una tubería del circuito primario o incluso la soldadura entre la placa divisoria y la placa tubular del generador de vapor.
[0019] Por ejemplo, es muy adecuado para el control de la superficie 3 de la cubierta de vasija 5 de un reactor nuclear del tipo ilustrado en la figura 3. La superficie 3 está constituida por un revestimiento 7 depositado en el casquete superior de la cubierta 5. La forma del revestimiento se ilustra en la parte inferior de la figura 4.
[0020] Un gran número de tubos 9 están fijados a la cubierta 5. Los tubos 9 son cruces que permiten el paso de cables o mecanismos no mostrados a través de la cubierta 5 de manera estanca. Los tubos 9 atraviesan el revestimiento 7 a través de los orificios 11 visibles en la figura 4.
[0021] Los tubos 9 sobresalen de la superficie e interfieren con el desplazamiento del robot que lleva el sensor. Además, los tubos 9 pueden ocultar determinados puntos de la superficie 3 durante el control, si se encuentran en el campo de detección del sensor. Por lo tanto, pueden crear zonas muertas que no pueden ser controladas por el sensor.
[0022] El sensor 13 es un sensor de control no destructivo.
[0023] Típicamente, el sensor 13 es un sensor óptico, por ejemplo, un aparato fotográfico, una cámara, una herramienta de control termográfico.
[0024] Como alternativa, el sensor 13 es un sensor de control de corriente de Foucault, un sensor de control ultrasónico, un sensor de control de rayos X o cualquier otro tipo de sensor.
[0025] El robot 15 es de cualquier tipo adecuado. Incluye cualquier número de ejes, es decir, grados de libertad, elegidos en función de la forma de la pieza a controlar.
[0026] El robot 15 es, por ejemplo, un brazo manipulador como se muestra en la figura 4.
[0027] Como alternativa, el robot 15 es una mesa con dos ejes X e Y, o es de cualquier otro tipo.
[0028] Como se ilustra en la figura 1, el procedimiento incluye una etapa S10 para obtener un modelo digital de la pieza 5, incluida la superficie 3 a controlar.
[0029] Este modelo digital proviene, por ejemplo, del diseñador o del fabricante de la pieza 5. Típicamente, cubre no solo la superficie 3 sino también todos los elementos que pueden influir en los movimientos del robot 15 u ocultar los puntos de la superficie 3 durante el control, como los tubos 9 en el ejemplo de la figura 3.
[0030] El procedimiento incluye además una etapa S12 de determinar una trayectoria de control para el sensor 13 con respecto a la superficie 3 en función de las características del robot 15 utilizando el modelo digital de la pieza 3.
[0031] La trayectoria se elige de manera que permita al sensor 13, sujeto a verificaciones posteriores, controlar toda la superficie 3.
[0032] La trayectoria es unidimensional, bidimensional o tridimensional, dependiendo del número de grados de libertad del robot 15.
[0033] Se determina de tal manera que satisfaga varios criterios:
- ser factible dadas las dimensiones y el número de ejes del robot 15;
- no crear interferencia entre el sensor 13 y los elementos de la pieza 5, o entre el robot 15 y los elementos de la pieza 15;
- permitir que el sensor 13 cubra toda la superficie 3 durante los controles;
- mantener el sensor 13 dentro de un rango predeterminado de distancia con respecto a la superficie 3.
[0034] En el ejemplo de la cubierta de vasija que se muestra en las figuras 3 y 4, la trayectoria está diseñada para evitar interferencias con los tubos 9.
[0035] En el ejemplo del brazo manipulador de la figura 4, se diseña la trayectoria teniendo en cuenta las dimensiones de cada tramo 17 del brazo, así como la orientación y la posible amplitud de giro de cada articulación 19 del brazo.
[0036] El rango de distancia a la superficie 3 depende del tipo de sensor utilizado y sus características. Corresponde al rango de distancia de trabajo nominal típicamente utilizado para el sensor.
[0037] La trayectoria es continua, o comprende varios tramos separados entre sí.
[0038] Las figuras 5 y 6 ilustran ejemplos de posibles trayectorias para controlar la cubierta de vasija de las figuras 3 y 4.
[0039] En la figura 5, la trayectoria incluye varias líneas longitudinales LL, que se extienden en planos sustancialmente paralelos entre sí. Los planos están espaciados regularmente entre sí. Cada línea sigue la superficie, a una distancia sustancialmente constante de ella. Una de las líneas LL pasa por el centro C del casquete de la cubierta, que es también el centro de la superficie 3. La trayectoria incluye 5 líneas en total.
[0040] En la figura 6, la trayectoria incluye varias líneas radiales LR, que se extienden en planos sustancialmente radiales. Los planos se cruzan a lo largo de una línea recta que pasa por el centro C del casquete de la cubierta y es sustancialmente normal con respecto a la cubierta en el centro C. Los planos están angularmente espaciados regularmente entre sí. Cada línea parte del centro C y sigue la superficie 3, a una distancia sustancialmente constante de esta última. La trayectoria incluye 12 líneas en total.
[0041] La trayectoria se determina utilizando un software de simulación de CND robótico en el que se ha cargado el modelo digital de la pieza 5.
[0042] El procedimiento incluye además una etapa S14 para determinar las posiciones de control del sensor 13 a lo largo de la trayectoria en función de las características del sensor 13, utilizando el modelo digital de la pieza 5.
[0043] Las posiciones de control son las posiciones relativas a la superficie 3 en las que el sensor 13 realizará un control de una zona de la superficie 3, es decir, adquirirá datos o realizará mediciones que caractericen dicha zona.
[0044] Las posiciones de control se eligen de manera que, previa verificación posterior, las zonas controladas por el sensor 13 cubran juntas la totalidad de la superficie 3, con suficiente superposición.
[0045] Las características del sensor 13 tenidas en cuenta para elegir las posiciones de control incluyen al menos una distancia entre el sensor 13 y la superficie 3, y una orientación del sensor 13 con respecto a la superficie 3.
[0046] La distancia corresponde al rango de distancia de trabajo nominal típicamente utilizado para el sensor.
[0047] Para un sensor óptico, la orientación del sensor 13 corresponde a la orientación del eje óptico del sensor 13.
[0048] Cuando el sensor 13 es de tipo óptico, las características del sensor también comprenden típicamente un ángulo de apertura del campo óptico y una profundidad de campo.
[0049] Como se ilustra en la figura 7, el campo óptico tiene, desde la lente 21 del sensor, la forma de un cono truncado divergente. El ángulo de apertura corresponde al ángulo del cono truncado.
[0050] Ventajosamente, el sensor óptico comprende un zoom. En este caso, las características del sensor 13 tenidas en cuenta para determinar las posiciones de control también incluyen un rango de distancia focal de zoom.
[0051] En el ejemplo de la figura 5, las posiciones de control P están espaciadas regularmente a lo largo de las líneas longitudinales LL.
[0052] En el ejemplo de la figura 6, las posiciones de control P se eligen de manera que se forme un enrollamiento en espiral en torno al centro C del casquete de la cubierta.
[0053] Las posiciones de control se determinan ventajosamente utilizando el software de simulación utilizado en la etapa S12.
[0054] El procedimiento también comprende una etapa S16 para determinar por cálculo la zona 23 de la superficie 3 controlada por el sensor 13 en cada puesto de control, utilizando el modelo digital de la pieza 5 y las características del sensor 13.
[0055] Para cada posición de control se calcula el campo de detección del sensor 13, correspondiendo la zona 23 a la intersección entre la superficie 3 y el campo de detección (figura 7).
[0056] Para un sensor óptico, el campo de detección corresponde al campo óptico.
[0057] El procedimiento también comprende, para cada posición de control, una etapa S18 para verificar por cálculo que toda la zona 23 está en un campo de detección del sensor 13, sin ningún elemento oculto, utilizando el modelo digital de la pieza 5 y las características del sensor 13.
[0058] La etapa S18 se detalla en la figura 2.
[0059] La etapa de verificación S18 comprende una subetapa de discretización S20 que incluye las siguientes operaciones:
- operación S22: discretización de la zona 23 en superficies unitarias 25;
- operación S24: para cada superficie unitaria 25, determinación de un baricentro G de la superficie unitaria 25.
[0060] Las superficies unitarias 25 son, por ejemplo, de forma triangular (véase la figura 7) y de un tamaño elegido para permitir una verificación precisa de la zona 23, sin por ello provocar un tiempo de cálculo excesivo. En conjunto, las superficies unitarias 25 cubren toda la zona 23.
[0061] El baricentro G de la superficie unitaria 25 es el punto geométrico que tiene como coordenadas la media aritmética de las coordenadas de todos los puntos de la superficie unitaria 25.
[0062] Ventajosamente, la etapa de verificación por cálculo S18 comprende una subetapa S26 para verificar que, para cada superficie unitaria 25, el baricentro G de dicha superficie unitaria 25 se encuentra en el campo de detección del sensor 13.
[0063] Ventajosamente, la etapa de verificación por cálculo S18 comprende una subetapa de trazado de rayos S28 (figura 8) que incluye para cada superficie unitaria 25 las siguientes operaciones:
- operación S30: determinar de una recta d que conecta el sensor 13 al baricentro G de la superficie unitaria 25; - operación S32: verificar si otra superficie unitaria 25 corta dicha recta entre el sensor 13 y dicho baricentro G.
[0064] La recta d representa un rayo de luz que va desde la superficie unitaria 25 hasta el sensor 13.
[0065] Cuando el sensor 13 es de tipo óptico, la recta d va desde el punto focal del sensor 13 hasta el baricentro G.
[0066] Ventajosamente, la etapa de verificación por cálculo S18 comprende una subetapa de verificación del ángulo S34 (figura 9) que incluye para cada superficie unitaria 25 las siguientes operaciones:
- operación S36: determinar una normal N con respecto a la superficie unitaria 25;
- operación S38: determinar de una recta d que conecta el sensor 13 al baricentro G de la superficie unitaria 25; - operación S40: verificar que un ángulo 0 entre la normal N y dicha recta d es inferior a un umbral predeterminado.
[0067] La recta d representa un rayo de luz que va desde la superficie unitaria 25 hasta el sensor 13.
[0068] Cuando el sensor 13 es de tipo óptico, la recta d va desde el punto focal del sensor 13 hasta el baricentro G.
[0069] El umbral es, por ejemplo, de 60°, preferentemente de 45°, más preferentemente de 30°.
[0070] Si el ángulo 0 es superior al umbral, los defectos de la superficie unitaria 25 no pueden ser detectados con suficiente claridad por el sensor 13, particularmente cuando éste es de tipo óptico.
[0071] La etapa de verificación por cálculo S18 incluye típicamente las subetapas S26, S28 y S34.
[0072] Como alternativa, la etapa de verificación por cálculo S18 comprende sólo una o dos de las subetapas S26, S28 y S34.
[0073] Preferentemente, incluye al menos la subetapa de trazado de rayos S28.
[0074] Por lo tanto, la subetapa de verificación por cálculo S28 lleva a la conclusión de que la totalidad de la zona 23 no está en un campo de detección del sensor 13 y que hay al menos un elemento oculto, si, para al menos una de las superficies unitarias 25:
- el baricentro G está fuera del campo de detección del sensor 13; u
- otra superficie unitaria 25 corta la recta d entre el sensor 13 y dicho baricentro G; o
- el ángulo 0 entre la normal N y la recta d es superior al umbral predeterminado.
[0075] Las etapas S16 y S18 se realizan ventajosamente utilizando el software de simulación utilizado en las etapas S12 y S14. En este caso, los módulos dedicados están integrados en dicho software.
[0076] El procedimiento incluye además una etapa S42 de verificación por cálculo de que toda la superficie 3 es controlable por el sensor 13, utilizando los resultados de las etapas de verificación para cada zona 23.
[0077] Para ello se superponen las zonas 23 al modelo digital de la superficie 3. A continuación, se realizan las siguientes operaciones:
- Verificación de si cada punto de la superficie 3 está cubierto por una de las zonas 23;
- En el caso de que, al menos en una posición de control, al menos una de las superficies unitarias 25 no esté en el campo de detección del sensor, verificación de si la una o más superficies unitarias 25 están en el campo de detección del sensor para otra posición de control.
[0078] La figura 10 ilustra las zonas 23 superpuestas a la pieza 5 para un ejemplo de realización en la que la cara de la cubierta de vasija opuesta a la superficie 3 está controlada según el procedimiento de la invención.
[0079] Si un punto de la superficie 3 no está cubierto por una de las zonas 23, o si al menos una superficie unitaria 25 no se encuentra en el campo de detección del sensor 13 para ninguna posición de control, entonces se considera que no es controlable toda la superficie 3.
[0080] La etapa S42 se realiza ventajosamente utilizando el software de simulación utilizado en las etapas S12, S14, S16 y S18.
[0081] Si no se puede controlar toda la superficie 3, el procedimiento prevé la adición de al menos una posición de control, y/o la modificación de al menos una de las posiciones de control, y/o la modificación de al menos una de las características del sensor.
[0082] A continuación se realiza una iteración adicional del procedimiento, comenzando desde la etapa S12 o desde la etapa S14.
[0083] Las etapas S12, S14, S16, S18, S42 se repiten hasta que la etapa S42 lleva a la conclusión de que toda la superficie 3 es controlable.
[0084] El procedimiento incluye además una etapa S44 de control de la superficie 3 mediante el sensor 13 movido por el robot 15, utilizando la trayectoria, las posiciones de control y las características del sensor 13 determinadas previamente.
[0085] La etapa S44 se inicia si la etapa S42 lleva a la conclusión de que toda la superficie 3 es controlable.
[0086] Por lo tanto, la invención propone un procedimiento de control no destructivo para la detección de defectos en piezas tales como componentes nucleares, por medio de un sensor CND robótico, estando el procedimiento especialmente adaptado para que no quede ninguna zona muerta en la superficie de la pieza, siendo de este modo total la cobertura mediante dicho sensor CND robótico.
[0087] El procedimiento permite determinar de forma rápida y sencilla las características de los sensores CND para cualquier tipo de aplicación, para las cuales la determinación de la cobertura de zonas es difícil o requiere mucho tiempo de obtención.
[0088] El procedimiento comprende una fase de simulación de la cobertura de zona por el sensor CND robótico.
[0089] El objetivo es no tener zona muerta y poder definir rápidamente el sensor CND robótico adecuado (forma, tamaño, tipo de óptica: diferentes distancias focales, zoom integrado, etc.).
[0090] La etapa de simulación de la cobertura de zona por un sensor CND robótico permite ajustar/optimizar más rápidamente las características del sensor CND robótico y las trayectorias del robot necesarias para realizar la inspección de la pieza.
[0091] La etapa de simulación es particularmente útil para la primera implementación del procedimiento para una pieza determinada.
[0092] El procedimiento se ha descrito anteriormente con la etapa S12 de determinación de una trayectoria de control implementada antes de la etapa S14 de determinación de posiciones de control. Como alternativa, la etapa S14 se implementa antes de la etapa S12, o simultáneamente con la etapa S12.
[0093] Según una variante de realización ilustrada en la figura 11, la iluminación 27 fija con respecto al sensor 13 se mueve mediante el robot 15. La iluminación 27 incluye una pluralidad de fuentes de luz 29 distribuidas alrededor del sensor 13.
[0094] El procedimiento incluye una etapa para determinar la una o más fuentes de luz 29 utilizadas en cada posición de control.
[0095] Las fuentes de luz 29 son, por ejemplo, diodos emisores de luz (LED, por sus siglas en inglés).
[0096] La determinación de la una o más fuentes de luz 29 utilizadas en cada posición de control se realiza mediante cálculo, por ejemplo, durante la etapa de verificación S26.
[0097] Se prueban diferentes configuraciones de iluminación, correspondiendo cada configuración a una combinación diferente de fuentes de luz 29 encendidas, y se mantiene la configuración que permite la mejor detección. Un operador determina visualmente, a partir de las imágenes simuladas, en qué configuración de iluminación el defecto se realza visualmente mejor y se destaca más claramente de su entorno.

Claims (8)

REIVINDICACIONES
1. Procedimiento para controlar la superficie (3) de una pieza (5) mediante un sensor (13) movido por un robot (15), comprendiendo el procedimiento las siguientes etapas:
- obtención de un modelo digital de la pieza (5), incluyendo la superficie (3) a controlar;
- determinación de una trayectoria de control del sensor (13) con respecto a la superficie (3) en función de las características del robot (15) utilizando el modelo digital de la pieza (5);
- determinación de las posiciones de control del sensor (13) a lo largo de la trayectoria en función de las características del sensor (13) utilizando el modelo digital de la pieza (5), comprendiendo las características del sensor (13) al menos una distancia entre el sensor (13) y la superficie (3), y una orientación del sensor (13) con respecto a la superficie (3);
- determinación por cálculo de una zona (23) de la superficie (3) controlada por el sensor (13) en cada posición de control utilizando el modelo digital de la pieza (5) y las características del sensor (13), y verificación por cálculo de que toda la zona (23) está en un campo de detección del sensor (13), sin elemento oculto, utilizando el modelo digital de la pieza (5) y las características del sensor (13);
-verificación por cálculo de que toda la superficie (3) es controlable por el sensor (13), utilizando los resultados de las etapas de verificación para cada zona (23);
- si no se puede controlar toda la superficie (3), adición de una posición de control, y/o modificación de al menos una de las posiciones de control, y/o modificación de al menos una de las características del sensor (13);
- si toda la superficie (3) es controlable, se determina el control de la superficie (3) mediante el sensor (13) movido por el robot (15), utilizando la trayectoria, las posiciones de control y las características del sensor (13), caracterizado porque la etapa de verificación por cálculo de que toda la zona (23) está en el campo de detección del sensor (13), sin ningún elemento oculto, comprende una subetapa de discretización que comprende las siguientes operaciones:
- discretización de la zona (23) en superficies unitarias (25);
- para cada superficie unitaria (25), determinación de un baricentro (G) de la superficie unitaria (25), y la etapa de verificación por cálculo de que toda la zona (23) está en el campo de detección del sensor (13), sin elemento oculto, que comprende una subetapa de verificación de que, para cada superficie unitaria (25), el baricentro (G) de dicha superficie unitaria (25) se encuentra en el campo de detección del sensor (13).
2. Procedimiento según la reivindicación 1, en el que el sensor (13) es de tipo óptico, comprendiendo además las características del sensor (13) un ángulo de apertura del campo óptico y una profundidad de campo.
3. Un procedimiento según la reivindicación 2, en el que el sensor (13) incluye un zoom, comprendiendo también las características del sensor (13) un rango de distancia focal del zoom.
4. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que la etapa de verificar por cálculo que toda la zona (23) está en el campo de detección del sensor (13), sin elemento oculto, comprende una subetapa de trazado de rayos que comprende para cada superficie unitaria (25) las siguientes operaciones:
- determinar una recta (d) que conecta el sensor (13) al baricentro (G) de la superficie unitaria (25);
- verificar si otra superficie unitaria (25) corta dicha recta (d) entre el sensor (13) y dicho baricentro (G).
5. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que la etapa de verificar por cálculo que toda la zona (23) está en el campo de detección del sensor (13), sin elemento oculto, comprende una subetapa de verificación del ángulo, que comprende para cada superficie unitaria (25) las siguientes operaciones: - determinar una normal (N) con respecto a la superficie unitaria (25);
- determinar una recta (d) que conecta el sensor (13) al baricentro (G) de la superficie unitaria (25);
- verificar que un ángulo entre la normal (N) y dicha recta (d) es inferior a un umbral predeterminado, por ejemplo, 60°.
6. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que las etapas de determinación de una trayectoria de control, determinación de las posiciones de control, determinación por cálculo de una zona (23) de la superficie (3) controlada por el sensor (13) en cada posición de control, verificación por cálculo de que toda la zona (23) está en un campo de detección del sensor (13), sin ningún elemento oculto, y verificación por cálculo de que toda la superficie (23) es controlable por el sensor (13), se realizan utilizando una herramienta única de simulación digital 3D.
7. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que la pieza (5) es una pieza de un reactor nuclear, por ejemplo, una cubierta de vasija de un reactor nuclear.
8. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que la iluminación (27) fijada con respecto al sensor (13) se mueve por el robot (15), comprendiendo la iluminación (27) una pluralidad de fuentes de luz (29) distribuidas alrededor del sensor (13), comprendiendo el procedimiento una etapa de determinar la una o más fuentes de luz (29) utilizadas en cada posición de control.
ES18726818T 2017-05-30 2018-05-29 Procedimiento de control de la superficie de una pieza mediante un sensor robótico Active ES2935829T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1754768A FR3067113B1 (fr) 2017-05-30 2017-05-30 Procede de controle de la surface d'une piece par un capteur robotise
PCT/EP2018/063998 WO2018219902A1 (fr) 2017-05-30 2018-05-29 Procédé de contrôle de la surface d'une pièce par un capteur robotisé

Publications (1)

Publication Number Publication Date
ES2935829T3 true ES2935829T3 (es) 2023-03-10

Family

ID=60080891

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18726818T Active ES2935829T3 (es) 2017-05-30 2018-05-29 Procedimiento de control de la superficie de una pieza mediante un sensor robótico

Country Status (5)

Country Link
EP (1) EP3630420B1 (es)
ES (1) ES2935829T3 (es)
FR (1) FR3067113B1 (es)
SI (1) SI3630420T1 (es)
WO (1) WO2018219902A1 (es)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020169586A1 (en) * 2001-03-20 2002-11-14 Rankin James Stewart Automated CAD guided sensor planning process
DE102004007829B4 (de) * 2004-02-18 2007-04-05 Isra Vision Systems Ag Verfahren zur Bestimmung von zu inspizierenden Bereichen
JP4171488B2 (ja) * 2005-12-16 2008-10-22 ファナック株式会社 オフラインプログラミング装置
FR2940449A1 (fr) * 2008-12-24 2010-06-25 Snecma Procede de controle non destructif d'une piece mecanique
WO2014145471A1 (en) * 2013-03-15 2014-09-18 Carnegie Mellon University A supervised autonomous robotic system for complex surface inspection and processing

Also Published As

Publication number Publication date
WO2018219902A1 (fr) 2018-12-06
FR3067113B1 (fr) 2019-06-28
SI3630420T1 (sl) 2023-03-31
EP3630420A1 (fr) 2020-04-08
FR3067113A1 (fr) 2018-12-07
EP3630420B1 (fr) 2022-12-14

Similar Documents

Publication Publication Date Title
KR101167292B1 (ko) 검사경로의 계획방법 및 검사영역의 결정방법
ES2913782T3 (es) Procedimiento y dispositivo de medición de dimensiones por rayos X en unos recipientes de vidrio vacíos que se desplazan en línea
ES2541805T3 (es) Métodos y sistemas para el automatizado de la capa límite e inspección de orientación
ES2457791T3 (es) Procedimiento para determinar errores geométricos en una máquina herramienta o máquina de medición
EP2807472B1 (en) Automated system and method for tracking and detecting discrepancies on a target object
BR102016029103A2 (pt) Method for determining a system of coordinates of a terminal manipulator system of a terminal manipulator of a machine for a system of coordinates of a work part, and system for orienting a terminal manipulator of a robotic arm in relation to a work part
ES2620786T3 (es) Procedimiento y sistema para el control de piezas constructivas y/o unidades funcionales con un dispositivo de inspección
EP2786094A1 (en) Profile measuring apparatus, structure manufacturing system, method for measuring profile, method for manufacturing structure, program for measuring profile and non-transitory computer readable medium
JP6379277B2 (ja) 追跡方法及び追跡システム
JP2017529959A5 (es)
CN103575748A (zh) 微小孔径工件内壁的光学检测系统
JP2004050356A (ja) 可動体の位置および姿勢検出装置
JP2015511405A5 (es)
US9430849B2 (en) Apparatus and method for performing at least one geometric dimension of an object
ES2935829T3 (es) Procedimiento de control de la superficie de una pieza mediante un sensor robótico
US20190291276A1 (en) Measurement system and method of an industrial robot
CN105208705A (zh) 一种舞台灯光自动跟踪系统及其控制方法
ES2956548T3 (es) Sistema de banco de trabajo
RU2754071C2 (ru) Оптический обмер крышки
RU2641604C1 (ru) Способ измерения абсолютного положения конечного звена многозвенного механизма промышленного робота
CN112041632A (zh) 3d对象检测系统
JP2019060808A5 (es)
ES2926792T3 (es) Sistema de banco de trabajo
US20190237208A1 (en) Method and device for inspecting a nuclear reactor part
JP2021076502A (ja) 遠隔計測装置及び遠隔計測方法