ES2969140T3 - Device for optical inspection of parisons - Google Patents

Device for optical inspection of parisons Download PDF

Info

Publication number
ES2969140T3
ES2969140T3 ES19813404T ES19813404T ES2969140T3 ES 2969140 T3 ES2969140 T3 ES 2969140T3 ES 19813404 T ES19813404 T ES 19813404T ES 19813404 T ES19813404 T ES 19813404T ES 2969140 T3 ES2969140 T3 ES 2969140T3
Authority
ES
Spain
Prior art keywords
image
parison
parisons
detector
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19813404T
Other languages
Spanish (es)
Inventor
Donato Laico
Simone Nigro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sacmi Imola SC
Original Assignee
Sacmi Imola SC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sacmi Imola SC filed Critical Sacmi Imola SC
Application granted granted Critical
Publication of ES2969140T3 publication Critical patent/ES2969140T3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/42Component parts, details or accessories; Auxiliary operations
    • B29C49/78Measuring, controlling or regulating
    • B29C49/80Testing, e.g. for leaks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/02Combined blow-moulding and manufacture of the preform or the parison
    • B29C2049/023Combined blow-moulding and manufacture of the preform or the parison using inherent heat of the preform, i.e. 1 step blow moulding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/42Component parts, details or accessories; Auxiliary operations
    • B29C49/78Measuring, controlling or regulating
    • B29C2049/787Thickness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/42Component parts, details or accessories; Auxiliary operations
    • B29C49/78Measuring, controlling or regulating
    • B29C2049/7874Preform or article shape, weight, defect or presence
    • B29C2049/7876Defects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C2949/00Indexing scheme relating to blow-moulding
    • B29C2949/07Preforms or parisons characterised by their configuration
    • B29C2949/0715Preforms or parisons characterised by their configuration the preform having one end closed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/02Combined blow-moulding and manufacture of the preform or the parison
    • B29C49/06Injection blow-moulding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/42Component parts, details or accessories; Auxiliary operations
    • B29C49/42378Handling malfunction
    • B29C49/4238Ejecting defective preforms or products
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C49/00Blow-moulding, i.e. blowing a preform or parison to a desired shape within a mould; Apparatus therefor
    • B29C49/42Component parts, details or accessories; Auxiliary operations
    • B29C49/78Measuring, controlling or regulating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29KINDEXING SCHEME ASSOCIATED WITH SUBCLASSES B29B, B29C OR B29D, RELATING TO MOULDING MATERIALS OR TO MATERIALS FOR MOULDS, REINFORCEMENTS, FILLERS OR PREFORMED PARTS, e.g. INSERTS
    • B29K2067/00Use of polyesters or derivatives thereof, as moulding material
    • B29K2067/003PET, i.e. poylethylene terephthalate
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29LINDEXING SCHEME ASSOCIATED WITH SUBCLASS B29C, RELATING TO PARTICULAR ARTICLES
    • B29L2031/00Other particular articles
    • B29L2031/712Containers; Packaging elements or accessories, Packages
    • B29L2031/7158Bottles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8848Polarisation of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Blow-Moulding Or Thermoforming Of Plastics Or The Like (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Un dispositivo (1) para la inspección óptica de parisones (2) comprende: un iluminador (3) configurado para emitir un haz de luz dirigido a un parisón (2) situado en una posición de inspección (10); un detector (4) configurado para capturar una imagen (10) del parisón (2) interpuesto entre el iluminador (3) y el detector (4), donde el iluminador (3) incluye un filtro polarizador de emisión (32) configurado para generar un haz de luz polarizada, y donde el detector (4) incluye un filtro polarizador receptor (41) configurado para recibir el haz de luz polarizada. (Traducción automática con Google Translate, sin valor legal)A device (1) for the optical inspection of parisons (2) comprises: an illuminator (3) configured to emit a beam of light directed at a parison (2) located in an inspection position (10); a detector (4) configured to capture an image (10) of the parison (2) interposed between the illuminator (3) and the detector (4), where the illuminator (3) includes an emission polarizing filter (32) configured to generate a beam of polarized light, and where the detector (4) includes a receiving polarizing filter (41) configured to receive the beam of polarized light. (Automatic translation with Google Translate, without legal value)

Description

DESCRIPCIÓN DESCRIPTION

Dispositivo para inspección óptica de parisones Device for optical inspection of parisons

Campo técnico Technical field

Esta invención se refiere a un dispositivo para la inspección óptica de parisones. Las líneas para la producción de contenedores de plástico, específicamente botellas, comprenden comúnmente una máquina de moldeo, configurada para formar parisones de<p>E<t>(tereftalato de polietileno) y una máquina de moldeo por soplado configurada para soplar las parisones en moldes para fabricar los contenedores. Algunas parisones pueden presentar defectos, por ejemplo, por espesores irregulares, agujeros, ampollas o cuerpos extraños; estos defectos deben ser detectados mediante un control de calidad destinado a eliminar rápidamente los parisones defectuosos de la línea de producción. This invention relates to a device for the optical inspection of parisons. Lines for the production of plastic containers, specifically bottles, commonly comprise a molding machine, configured to form parisons of<p>E<t>(polyethylene terephthalate) and a blow molding machine configured to blow the parisons into molds to make the containers. Some parisons may present defects, for example, due to irregular thicknesses, holes, blisters or foreign bodies; These defects must be detected through quality control aimed at quickly eliminating defective parisons from the production line.

Técnica anterior Previous technique

Conocido a partir del documento de patente EP2976204B1 es un sistema de control óptico de parisones configurado para comprobar los parisones mientras son transportados por un transportador hacia un recipiente de recogida; el sistema comprende una cámara y una fuente de luz, dispuestas de tal manera que la fuente de luz ilumina los parisones desde atrás y la cámara captura una imagen de cada parisón desde el frente. Known from patent document EP2976204B1 is an optical parison control system configured to check parisons while they are transported by a conveyor towards a collection container; The system comprises a camera and a light source, arranged such that the light source illuminates the parisons from behind and the camera captures an image of each parison from the front.

Otros sistemas de inspección se divulgan en los siguientes documentos de patente: US2017/129157A1, DE102006047150A1, US2018/311883A1. Una limitación de los sistemas de inspección óptica de la técnica anterior es que limitan el control de calidad a características de la imagen que son visibles para la cámara (como la formación de ampollas, por ejemplo) pero que no pueden detectar defectos internos del material, como tensiones residuales irregulares en las cadenas de polímero del PET. Other inspection systems are disclosed in the following patent documents: US2017/129157A1, DE102006047150A1, US2018/311883A1. A limitation of prior art optical inspection systems is that they limit quality control to image features that are visible to the camera (such as blistering, for example) but cannot detect internal material defects. as irregular residual stresses in the PET polymer chains.

Además, los sistemas de la técnica anterior detectan los parisones defectuosos basándose en la similitud con imágenes de otros parisones defectuosos almacenadas en una base de datos. Por lo tanto, estos sistemas deben inicializarse con una base de datos que contenga todos los posibles defectos que deben detectarse; sin embargo, es raro encontrar una base de datos completa y exhaustiva de este tipo porque los defectos varían ampliamente y los parisones defectuosos constituyen sólo un pequeño porcentaje de los parisones fabricados. Additionally, prior art systems detect defective parisons based on similarity to images of other defective parisons stored in a database. Therefore, these systems must be initialized with a database containing all possible defects that must be detected; However, it is rare to find such a complete and exhaustive database because defects vary widely and defective parisons constitute only a small percentage of manufactured parisons.

Por lo tanto, en términos generales, los sistemas de la técnica anterior tienen una fiabilidad limitada a la hora de identificar parisones defectuosas. Therefore, generally speaking, prior art systems have limited reliability in identifying defective parisons.

Divulgación de la invención Disclosure of the invention

El objetivo de esta divulgación es proporcionar un dispositivo y un método para la inspección óptica de parisones para superar las desventajas de la técnica anterior mencionadas anteriormente. Otro objetivo de esta divulgación es proporcionar un método para procesar una imagen de un parisón para superar las desventajas de la técnica anterior mencionadas anteriormente. The objective of this disclosure is to provide a device and method for optical inspection of parisons to overcome the disadvantages of the prior art mentioned above. Another objective of this disclosure is to provide a method for processing an image of a parison to overcome the disadvantages of the prior art mentioned above.

Estos objetivos se logran plenamente, de acuerdo con esta divulgación, mediante el dispositivo para la inspección óptica de parisones, mediante el método para la inspección óptica de parisones y por el método para procesar una imagen de un parisón como se caracteriza en las reivindicaciones adjuntas. These objectives are fully achieved, according to this disclosure, by the device for optical inspection of parisons, by the method for optical inspection of parisons and by the method for processing an image of a parison as characterized in the attached claims.

Más específicamente, esta divulgación se refiere a un dispositivo para la inspección óptica de parisones (o preformas) u otros objetos hechos de material plástico (como tapones o cápsulas, por ejemplo) o metálico (como tapas); en este respecto, se entiende que el resto de esta descripción, hecha con referencia a los parisones, es también aplicable a otros objetos fabricados en material plástico o metálico. El término "parisón" se utiliza para designar un producto intermedio en el proceso de producción de recipientes de plástico como, por ejemplo, botellas de bebidas. Más específicamente, las parisones se forman moldeando el material plástico (normalmente moldeo por inyección o compresión) y, en una etapa posterior, se expanden mediante moldeo por soplado para producir los contenedores terminados. Los parisones están fabricados de material plástico, preferentemente PET (tereftalato de polietileno). More specifically, this disclosure relates to a device for optical inspection of parisons (or preforms) or other objects made of plastic material (such as caps or capsules, for example) or metal (such as caps); In this regard, it is understood that the rest of this description, made with reference to parisons, is also applicable to other objects made of plastic or metallic material. The term "parison" is used to designate an intermediate product in the production process of plastic containers such as beverage bottles. More specifically, parisons are formed by molding the plastic material (typically injection or compression molding) and, at a later stage, expanded by blow molding to produce the finished containers. The parisons are made of plastic material, preferably PET (polyethylene terephthalate).

El dispositivo para la inspección óptica de parisones de acuerdo con esta divulgación comprende un iluminador. El iluminador incluye una fuente de luz configurada para emitir un haz de luz dirigido a un parisón ubicado en una posición de inspección. The device for optical inspection of parisons according to this disclosure comprises an illuminator. The illuminator includes a light source configured to emit a beam of light directed at a parison located in an inspection position.

En una realización, el dispositivo incluye un bolsillo de inspección configurado para recibir el parisón en la posición de inspección. En otra realización, la bolsa de inspección configurada para recibir el parisón en la posición de inspección es parte de una línea que, entre otras cosas, incluye el dispositivo. El dispositivo comprende un detector. El detector incluye una cámara. La cámara (es decir, el detector) está configurada para capturar una imagen del parisón ubicado en la posición de inspección. In one embodiment, the device includes an inspection pocket configured to receive the parison in the inspection position. In another embodiment, the inspection bag configured to receive the parison in the inspection position is part of a line that, among other things, includes the device. The device comprises a detector. The detector includes a camera. The camera (i.e., detector) is configured to capture an image of the parison located at the inspection position.

En una realización, la fuente de luz está configurada para emitir el haz de luz de forma continua. En una realización, la fuente de luz es estroboscópica y está configurada para emitir el haz de luz en intervalos de emisión predeterminados (cada intervalo de emisión corresponde al tiempo necesario para alimentar un parisón a la posición de inspección). In one embodiment, the light source is configured to emit the light beam continuously. In one embodiment, the light source is strobe and is configured to emit the light beam at predetermined emission intervals (each emission interval corresponds to the time required to feed a parison to the inspection position).

En una realización, la cámara está configurada para capturar la imagen en intervalos de captura predeterminados (cada intervalo de captura corresponde al tiempo necesario para alimentar un parisón a la posición de inspección); si la fuente de luz es estroboscópica, los intervalos de emisión corresponden (es decir, son iguales) a los intervalos de captura. In one embodiment, the camera is configured to capture the image at predetermined capture intervals (each capture interval corresponds to the time required to feed a parison to the inspection position); if the light source is strobe, the emission intervals correspond (i.e., are equal to) the capture intervals.

En la posición de inspección, el parisón está operativamente interpuesto entre el iluminador y el detector. De esa manera, el iluminador ilumina el parisón desde un primer lado (por ejemplo, desde el frente), mientras que el detector captura una imagen del parisón desde un segundo lado, opuesto al primero (por ejemplo, desde atrás); el detector captura así una imagen retroiluminada del parisón. In the inspection position, the parison is operatively interposed between the illuminator and the detector. In this way, the illuminator illuminates the parison from a first side (for example, from the front), while the detector captures an image of the parison from a second side, opposite to the first (for example, from behind); The detector thus captures a back-illuminated image of the parison.

Preferiblemente, el iluminador (o el dispositivo) incluye un filtro polarizador de emisión (o primer filtro polarizador). El filtro polarizador de emisión está configurado para interceptar el haz de luz emitido por la fuente de luz. El filtro polarizador de emisión está configurado para generar un haz de luz polarizado correspondiente a partir del haz de luz emitido por la fuente de luz. Preferably, the illuminator (or device) includes an emission polarizing filter (or first polarizing filter). The emission polarizing filter is configured to intercept the light beam emitted by the light source. The emission polarizing filter is configured to generate a corresponding polarized light beam from the light beam emitted by the light source.

Preferiblemente, el detector (o el dispositivo de inspección) incluye un filtro polarizador receptor (o segundo filtro polarizador). Preferably, the detector (or inspection device) includes a receiving polarizing filter (or second polarizing filter).

Preferiblemente, en la posición de inspección, el parisón está operativamente interpuesto entre el filtro polarizador de emisión y el filtro polarizador receptor. Preferably, in the inspection position, the parison is operatively interposed between the emission polarizing filter and the receiving polarizing filter.

El filtro polarizador receptor está configurado para recibir el haz de luz polarizado. Más específicamente, el filtro polarizador receptor está configurado para recibir el haz de luz polarizado por el filtro polarizador de emisión y refractado por el parisón y para generar un segundo haz de luz polarizada. La cámara recibe así el segundo haz de luz polarizada. The receiving polarizing filter is configured to receive the polarized light beam. More specifically, the receiving polarizing filter is configured to receive the beam of light polarized by the emission polarizing filter and refracted by the parison and to generate a second beam of polarized light. The camera thus receives the second beam of polarized light.

Dado que el material del que está hecho el parisón (preferiblemente PET) se caracteriza por la birrefringencia, cuando las cadenas de polímero en su interior están orientadas y se somete a tensión, la luz polarizada (del primer filtro polarizador) que incide en él se refracta de acuerdo con índices de refracción que difieren de acuerdo con la tensión. Más concretamente, los rayos luminosos que inciden en el parisón se descomponen en dos rayos que oscilan en planos perpendiculares y el segundo polarizador deja pasar sólo una parte de los componentes, colocándolos en el mismo plano y creando interferencias; por lo tanto, las zonas sometidas a la misma tensión tendrán las mismas interferencias y, por tanto, el mismo color, mientras que las zonas sometidas a diferentes tensiones tendrán diferentes colores. De este modo, la cámara captura una imagen que muestra un patrón de color que representa una distribución interna de la tensión en el parisón. Since the material from which the parison is made (preferably PET) is characterized by birefringence, when the polymer chains inside it are oriented and subjected to tension, the polarized light (from the first polarizing filter) that falls on it is refracts according to refractive indices that differ according to the tension. More specifically, the light rays that hit the parison are decomposed into two rays that oscillate in perpendicular planes and the second polarizer allows only part of the components to pass, placing them in the same plane and creating interferences; Therefore, areas subjected to the same voltage will have the same interferences and, therefore, the same color, while areas subjected to different voltages will have different colors. In this way, the camera captures an image showing a color pattern that represents an internal distribution of stress in the parison.

Está previsto que el primer y el segundo filtro polarizador estén dispuestos en planos paralelos. Está previsto que el primer filtro polarizador (o filtro de emisión) sea un filtro polarizador lineal. En particular, el primer filtro polarizador (o filtro de emisión) está configurado para polarizar la luz en una primera dirección de polarización. Se prevé que el eje del parisón, en la posición de inspección, esté orientado paralelo a la primera dirección de polarización (del filtro de emisión). Aquí se entiende como "eje del parisón" el eje de simetría central del parisón, alrededor del cual se extiende la pared lateral del parisón. It is provided that the first and second polarizing filters are arranged in parallel planes. The first polarizing filter (or emission filter) is intended to be a linear polarizing filter. In particular, the first polarizing filter (or emission filter) is configured to polarize light in a first polarization direction. The axis of the parison, in the inspection position, is expected to be oriented parallel to the first polarization direction (of the emission filter). Here the "parison axis" is understood to be the central symmetry axis of the parison, around which the lateral wall of the parison extends.

Está previsto que el filtro polarizador (o filtro receptor) sea un filtro polarizador lineal; el segundo filtro polarizador (o filtro receptor) está configurado para polarizar la luz en una segunda dirección de polarización. Preferiblemente, tanto el primer como el segundo filtro polarizador son filtros polarizadores lineales. En una realización, la primera dirección de polarización y la segunda dirección de polarización son paralelas entre sí (y en este caso, la luz resultante es blanca). En una realización, la primera dirección de polarización y la segunda dirección de polarización son diferentes entre sí. En particular, la primera y segunda direcciones de polarización pueden definir un ángulo comprendido entre 5° y 50°; por ejemplo, la primera y segunda direcciones de polarización pueden ser perpendiculares entre sí (y en este caso, la luz resultante es negra). En otro ejemplo, la primera y segunda direcciones de polarización pueden definir un ángulo de 45°. En otro ejemplo, la primera y segunda direcciones de polarización pueden definir un ángulo de 30°. En otro ejemplo, la primera y segunda direcciones de polarización pueden definir un ángulo de 15°. The polarizing filter (or receiving filter) is intended to be a linear polarizing filter; The second polarizing filter (or receiving filter) is configured to polarize light in a second polarization direction. Preferably, both the first and second polarizing filters are linear polarizing filters. In one embodiment, the first polarization direction and the second polarization direction are parallel to each other (and in this case, the resulting light is white). In one embodiment, the first polarization direction and the second polarization direction are different from each other. In particular, the first and second polarization directions may define an angle between 5° and 50°; for example, the first and second polarization directions may be perpendicular to each other (and in this case, the resulting light is black). In another example, the first and second polarization directions may define an angle of 45°. In another example, the first and second polarization directions may define an angle of 30°. In another example, the first and second polarization directions may define an angle of 15°.

En otras realizaciones, el primer y/o segundo filtros polarizadores son filtros polarizadores circulares. In other embodiments, the first and/or second polarizing filters are circular polarizing filters.

En otras realizaciones, el primer y segundo filtros polarizadores no se proporcionan y, por lo tanto, la cámara captura una imagen monocromática retroiluminada del parisón (con zonas claras y oscuras). In other embodiments, the first and second polarizing filters are not provided and therefore the camera captures a backlit monochrome image of the parison (with light and dark areas).

Está previsto que los parisones se alimenten individualmente, es decir, uno tras otro, en el puesto de inspección. Por ejemplo, se prevé que el dispositivo de inspección sea parte de un aparato (que puede ser en sí mismo objeto de la presente divulgación), que incluye un transportador configurado para transportar en sucesión los parisones a inspeccionar a lo largo de una trayectoria de inspección (en el que, dentro de la inspección recorrido, se define la posición de inspección). El transportador puede incluir una cinta de succión que define una pluralidad de aberturas y está configurada para hacer contacto con un borde superior de los parisones, para crear una presión negativa (es decir, un vacío) en la cavidad interna de los parisones. Entonces la correa de succión está configurada para soportar los parisones a través de dicha presión negativa. La correa de succión está configurada para mover los parisones a lo largo del recorrido de inspección y colocarlos, uno tras otro, en la posición de inspección. El iluminador y el filtro polarizador de emisión pueden estar dispuestos en un primer lado del recorrido de inspección (es decir, de la cinta de succión); la cámara y el filtro polarizador receptor pueden estar dispuestos en un segundo lado del recorrido de inspección (es decir, de la cinta de succión), opuesto al primer lado; por lo tanto, el parisón, sostenido por la correa de succión, se interpone entre el filtro polarizador de emisión y el filtro polarizador receptor. It is planned that the parisons will be fed individually, that is, one after the other, at the inspection post. For example, it is envisaged that the inspection device is part of an apparatus (which may itself be the subject of the present disclosure), which includes a conveyor configured to transport in succession the parisons to be inspected along an inspection path. (in which, within the inspection tour, the inspection position is defined). The conveyor may include a suction belt that defines a plurality of openings and is configured to contact an upper edge of the parisons, to create a negative pressure (i.e., a vacuum) in the internal cavity of the parisons. The suction belt is then configured to support the parisons through said negative pressure. The suction belt is configured to move the parisons along the inspection path and place them, one after another, in the inspection position. The illuminator and the emission polarizing filter may be arranged on a first side of the inspection path (i.e., of the suction belt); the camera and the receiving polarizing filter may be arranged on a second side of the inspection path (i.e., of the suction belt), opposite to the first side; Therefore, the parison, held by the suction belt, is interposed between the emitting polarizing filter and the receiving polarizing filter.

En una realización, el dispositivo comprende una unidad de procesamiento. La unidad de procesamiento está conectada al detector. In one embodiment, the device comprises a processing unit. The processing unit is connected to the detector.

La unidad de procesamiento incluye una memoria que contiene datos de referencia. La unidad de procesamiento incluye un procesador, programado para procesar la imagen capturada por el detector basándose en los datos de referencia, con el fin de derivar una indicación de diagnóstico con respecto al defecto del parisón. The processing unit includes memory that contains reference data. The processing unit includes a processor, programmed to process the image captured by the detector based on the reference data, in order to derive a diagnostic indication regarding the parison defect.

En una realización, el procesador puede incluir uno o más criterios para la identificación de parisones defectuosos, basándose en uno o más valores de umbral almacenados en la memoria. Por ejemplo, el procesador puede configurarse para identificar un parisón defectuoso en el caso en que el brillo de la imagen capturada por la cámara esté por encima de un valor umbral predeterminado (en efecto, una imagen con alto brillo indica un parisón con paredes muy delgadas) y/o en el caso de que la imagen presente una transición de color nítida, por encima de cierto umbral). In one embodiment, the processor may include one or more criteria for identifying bad parisons, based on one or more threshold values stored in memory. For example, the processor can be configured to identify a defective parison in the case where the brightness of the image captured by the camera is above a predetermined threshold value (in effect, an image with high brightness indicates a parison with very thin walls. ) and/or in the event that the image presents a sharp color transition, above a certain threshold).

En una realización preferida, la unidad de procesamiento está configurada para procesar la imagen capturada por el detector (basándose en los datos de referencia), con el fin de derivar valores de una pluralidad de características de la imagen a partir de la imagen capturada; este proceso codifica el código de la imagen (transformando o comprimiendo la imagen de acuerdo con un algoritmo predeterminado, o uno derivado por el sistema de procesamiento en una etapa de autoaprendizaje). Por tanto, la unidad de procesamiento está configurada para asignar un valor a cada característica de la pluralidad de características de imagen. En una realización, codificar la imagen incluye reducir el tamaño de la imagen (por ejemplo, la pluralidad de características de la imagen puede incluir 500 características). In a preferred embodiment, the processing unit is configured to process the image captured by the detector (based on the reference data), in order to derive values of a plurality of image characteristics from the captured image; This process encodes the image code (transforming or compressing the image according to a predetermined algorithm, or one derived by the processing system in a self-learning stage). Therefore, the processing unit is configured to assign a value to each feature of the plurality of image features. In one embodiment, encoding the image includes reducing the size of the image (for example, the plurality of image features may include 500 features).

Estas características de la imagen representan la imagen. Por lo tanto, la unidad de procesamiento está configurada para extraer de la imagen una pluralidad de valores asignados a una pluralidad correspondiente de características de la imagen y para reducir la imagen a estos valores representativos (o significativos) de la imagen. These image features represent the image. Therefore, the processing unit is configured to extract from the image a plurality of values assigned to a corresponding plurality of image features and to reduce the image to these representative (or significant) values of the image.

En una realización, la unidad de procesamiento está configurada para procesar los valores de la pluralidad de características de imagen (basándose en los datos de referencia) para derivar una indicación de diagnóstico con respecto al defecto del parisón. En una realización, la unidad de procesamiento está configurada para clasificar la imagen basándose en los valores de la pluralidad de características de la imagen; por ejemplo, para cada característica de imagen, la memoria puede incluir uno o más valores típicos de un parisón bueno (es decir, libre de defectos) y uno o más valores típicos de un parisón defectuoso, y la unidad de procesamiento puede configurarse para identificar un parisón es defectuoso si al menos un valor de una característica de la imagen está razonablemente cerca (por encima de un cierto umbral) al valor típico respectivo del parisón defectuoso, y/o si una cierta combinación (por ejemplo, una multiplicación) de características de la imagen es razonablemente cercano (por encima de cierto umbral) a un valor de referencia para esa combinación, típico de un parisón defectuoso. In one embodiment, the processing unit is configured to process the values of the plurality of image features (based on the reference data) to derive a diagnostic indication regarding the parison defect. In one embodiment, the processing unit is configured to classify the image based on the values of the plurality of image features; For example, for each image feature, the memory may include one or more values typical of a good (i.e., defect-free) parison and one or more values typical of a defective parison, and the processing unit may be configured to identify A parison is defective if at least one value of an image feature is reasonably close (above a certain threshold) to the respective typical value of the defective parison, and/or if a certain combination (e.g., a multiplication) of features of the image is reasonably close (above a certain threshold) to a reference value for that combination, typical of a defective parison.

Por ejemplo, las características de la imagen pueden incluir la presencia o ausencia de ciertos colores o combinaciones de colores, y/o la presencia o ausencia de una cierta simetría y/o la intensidad de la luz en ciertos puntos; la unidad de procesamiento puede configurarse para identificar un parisón como defectuoso si la imagen presenta un determinado color o combinación de colores, o tiene (o no tiene) una determinada simetría o la intensidad de la luz en determinados puntos es mayor o menor que un valor umbral. For example, image characteristics may include the presence or absence of certain colors or color combinations, and/or the presence or absence of a certain symmetry and/or light intensity at certain points; The processing unit can be configured to identify a parison as defective if the image has a certain color or combination of colors, or has (or does not have) a certain symmetry, or the light intensity at certain points is greater or less than a value. threshold.

En una realización, la unidad de procesamiento está configurada para generar una imagen reconstruida a partir de los valores de la pluralidad de características de la imagen (y en base a los datos de referencia). En una realización, la unidad de procesamiento está configurada para derivar la indicación de diagnóstico con respecto al defecto del parisón en función de comparar la imagen capturada por el detector con la imagen que se reconstruye (sobre la base de los datos de referencia). In one embodiment, the processing unit is configured to generate a reconstructed image from the values of the plurality of image features (and based on the reference data). In one embodiment, the processing unit is configured to derive the diagnostic indication regarding the parison defect based on comparing the image captured by the detector with the image that is reconstructed (based on the reference data).

Más específicamente, la unidad de procesamiento está configurada para comparar la imagen capturada por el detector con la imagen reconstruida y para derivar un parámetro de similitud que representa una similitud entre la imagen capturada por el detector y la imagen reconstruida. La unidad de procesamiento está configurada para comparar el parámetro de similitud con un valor umbral predeterminado (que puede ser parte de los datos de referencia) y para derivar la indicación de diagnóstico en función de comparar el valor umbral predeterminado con el parámetro de similitud. Por ejemplo, la unidad de procesamiento puede configurarse para identificar un parisón como bueno si el parámetro de similitud está por encima de un cierto umbral de similitud. Por lo tanto, la unidad de procesamiento está configurada para identificar un parisón como bueno si la imagen reconstruida es suficientemente similar a la imagen inicial capturada por la cámara. More specifically, the processing unit is configured to compare the image captured by the detector with the reconstructed image and to derive a similarity parameter that represents a similarity between the image captured by the detector and the reconstructed image. The processing unit is configured to compare the similarity parameter with a predetermined threshold value (which may be part of the reference data) and to derive the diagnostic indication based on comparing the predetermined threshold value with the similarity parameter. For example, the processing unit may be configured to identify a parison as good if the similarity parameter is above a certain similarity threshold. Therefore, the processing unit is configured to identify a parison as good if the reconstructed image is sufficiently similar to the initial image captured by the camera.

En efecto, la unidad de procesamiento está entrenada para procesar la imagen (es decir, codificarla, derivar los valores de la pluralidad de características de la imagen y generar la imagen reconstruida a partir de la misma) sobre la base de parisones que son buenos, es decir, libre de defectos. La unidad de procesamiento puede entrenarse mediante un sistema de autoaprendizaje, como se describe a continuación, o puede ser una unidad preentrenada disponible comercialmente. Si el parisón es bueno, la unidad de procesamiento es capaz de procesar su imagen correctamente y generar una imagen reconstruida que sea similar a la imagen original; por el contrario, si el parisón es defectuoso, la unidad de procesamiento, que está entrenada en parisones buenos, no puede reconstruir la imagen correctamente y, como resultado, genera una imagen reconstruida que es significativamente diferente de la original. In effect, the processing unit is trained to process the image (i.e., encode it, derive the values of the plurality of image features and generate the reconstructed image therefrom) on the basis of parisons that are good, that is, free of defects. The processing unit may be trained using a self-learning system, as described below, or may be a commercially available pretrained unit. If the parison is good, the processing unit is able to process your image correctly and generate a reconstructed image that is similar to the original image; conversely, if the parison is defective, the processing unit, which is trained on good parisons, cannot reconstruct the image correctly and, as a result, generates a reconstructed image that is significantly different from the original.

Por lo tanto, se prevé que la unidad de procesamiento sea entrenada con muestras de objetos de una única tipología (por ejemplo, de tipología libre de defectos); entonces, la unidad de procesamiento podrá distinguir entre al menos dos tipologías de objetos (por ejemplo, tipología con defectos y tipología libre de defectos). Therefore, it is expected that the processing unit will be trained with samples of objects of a single typology (for example, defect-free typology); then, the processing unit will be able to distinguish between at least two typologies of objects (for example, typology with defects and typology free of defects).

En una realización, el dispositivo comprende un sistema de autoaprendizaje. In one embodiment, the device comprises a self-learning system.

El sistema de autoaprendizaje está, en una realización, integrado en la unidad de procesamiento. El sistema de autoaprendizaje está, en una realización, conectado a la unidad de procesamiento. El sistema de autoaprendizaje está, en una realización, conectado a la memoria. The self-learning system is, in one embodiment, integrated into the processing unit. The self-learning system is, in one embodiment, connected to the processing unit. The self-learning system is, in one embodiment, connected to memory.

El sistema de autoaprendizaje está configurado para recibir como entrada una pluralidad de imágenes capturadas por el detector para una pluralidad correspondiente de parisones. El sistema de autoaprendizaje está configurado para codificar cada imagen de la pluralidad de imágenes capturadas por el detector para una pluralidad correspondiente de parisones (basándose en los datos de referencia) para derivar de cada imagen de la pluralidad de imágenes los valores correspondientes de una pluralidad de características de imágenes. Preferiblemente, el sistema de autoaprendizaje está configurado para codificar las imágenes sobre la base de un criterio predeterminado (que puede ser a su vez parte de los datos de referencia). The self-learning system is configured to receive as input a plurality of images captured by the detector for a corresponding plurality of parisons. The self-learning system is configured to encode each image of the plurality of images captured by the detector for a corresponding plurality of parisons (based on the reference data) to derive from each image of the plurality of images corresponding values of a plurality of image characteristics. Preferably, the self-learning system is configured to encode the images based on a predetermined criterion (which may itself be part of the reference data).

El sistema de autoaprendizaje está configurado para generar para cada imagen de la pluralidad de imágenes una imagen correspondiente reconstruida a partir de los valores correspondientes de la pluralidad de características de imagen (y en base a los datos de referencia). The self-learning system is configured to generate for each image of the plurality of images a corresponding image reconstructed from the corresponding values of the plurality of image features (and based on the reference data).

El sistema de autoaprendizaje está configurado para comparar cada imagen de la pluralidad de imágenes con la imagen reconstruida correspondiente con el fin de derivar, para cada imagen, un parámetro de similitud que representa una similitud entre la imagen capturada por el detector y la imagen reconstruida correspondiente. The self-learning system is configured to compare each image of the plurality of images with the corresponding reconstructed image in order to derive, for each image, a similarity parameter that represents a similarity between the image captured by the detector and the corresponding reconstructed image. .

El sistema de autoaprendizaje está configurado para actualizar los datos de referencia en función del parámetro de similitud de tal manera que el parámetro de similitud sea inferior a un valor umbral predeterminado (si el parámetro de similitud es directamente proporcional a la similitud entre los imágenes; en caso contrario, si el parámetro de similitud es inversamente proporcional a la diferencia entre las imágenes, de forma que sea mayor que un valor umbral predeterminado). En una realización, el valor umbral predeterminado es en sí mismo parte de los datos de referencia. Preferiblemente, el sistema de autoaprendizaje está configurado para actualizar los datos de referencia (iterativamente) en función del parámetro de similitud para cada imagen de la pluralidad de imágenes. The self-learning system is configured to update the reference data based on the similarity parameter such that the similarity parameter is less than a predetermined threshold value (if the similarity parameter is directly proportional to the similarity between the images; in Otherwise, if the similarity parameter is inversely proportional to the difference between the images, so that it is greater than a predetermined threshold value). In one embodiment, the predetermined threshold value is itself part of the reference data. Preferably, the self-learning system is configured to update the reference data (iteratively) based on the similarity parameter for each image of the plurality of images.

En una realización preferida, el sistema de autoaprendizaje está configurado para actualizar la pluralidad de características de la imagen (preferiblemente en combinación con los datos de referencia) en función del parámetro de similitud y de un valor umbral predeterminado. Más específicamente, los datos de referencia y/o la pluralidad de características de imagen se actualizan de tal manera que, para cada imagen de la pluralidad de imágenes, el parámetro de similitud es mayor que un valor umbral predeterminado (si el parámetro de similitud es directamente proporcional a la similitud entre las imágenes). In a preferred embodiment, the self-learning system is configured to update the plurality of image features (preferably in combination with the reference data) based on the similarity parameter and a predetermined threshold value. More specifically, the reference data and/or the plurality of image features are updated such that, for each image of the plurality of images, the similarity parameter is greater than a predetermined threshold value (if the similarity parameter is directly proportional to the similarity between the images).

Por otro lado, si el parámetro de similitud es directamente proporcional a una diferencia entre las imágenes (es decir, inversamente proporcional a su similitud), el sistema de autoaprendizaje está configurado para actualizar los datos de referencia y/o las características de la imagen de tal manera que el parámetro de similitud sea menor que un valor umbral predeterminado. On the other hand, if the similarity parameter is directly proportional to a difference between the images (i.e., inversely proportional to their similarity), the self-learning system is configured to update the reference data and/or image features of such that the similarity parameter is less than a predetermined threshold value.

En una realización preferida, el criterio predeterminado incluye (o está definido por) un número máximo (o un número predeterminado) de características para la pluralidad de características de imagen. El criterio predeterminado garantiza que el sistema no realice simplemente una función de identificación de la imagen capturada, independientemente del defecto del parisón. In a preferred embodiment, the predetermined criterion includes (or is defined by) a maximum number (or a predetermined number) of features for the plurality of image features. The default criterion ensures that the system does not simply perform an identification function on the captured image, regardless of the parison defect.

Así, en una realización preferida, el sistema de autoaprendizaje está configurado para determinar tanto las características de la imagen como los datos de referencia en función de las imágenes capturadas por el detector. Thus, in a preferred embodiment, the self-learning system is configured to determine both image characteristics and reference data based on images captured by the detector.

Este sistema funciona particularmente bien si las imágenes capturadas representan parisones buenos; de esa manera, el sistema aprende a codificar y reconstruir las imágenes de parisones buenos (es decir, los datos de referencia que se utilizarán para la codificación, las características de la imagen que se extraerán (porque representan parisones buenos) y los datos de referencia que se utilizarán para la reconstrucción. Luego, cuando el sistema de procesamiento tenga que codificar y reconstruir un parisón defectuoso, no lo conseguirá y generará una imagen reconstruida que difiere significativamente de la inicial. This system works particularly well if the captured images represent good parisons; that way, the system learns to encode and reconstruct the good parisons images (i.e., the reference data to be used for encoding, the image features to be extracted (because they represent good parisons), and the reference data that will be used for reconstruction. Then, when the processing system has to encode and reconstruct a defective parison, it will fail and will generate a reconstructed image that differs significantly from the initial one.

En otra realización, el criterio predeterminado incluye (o está definido por) la pluralidad de características de la imagen (es decir, las características para las cuales se extraen los valores). In another embodiment, the predetermined criterion includes (or is defined by) the plurality of image features (i.e., the features for which values are extracted).

En una realización, el sistema de autoaprendizaje incluye clasificadores. Los clasificadores están configurados para clasificar las imágenes capturadas basándose en parámetros tales como, por ejemplo, color, gradiente de color, desviación estándar de color en una vecindad de un píxel, color medio en una vecindad de un píxel u otros. Específicamente, los clasificadores pueden programarse para construir un histograma representativo de una distribución de los colores en la imagen y para clasificar la imagen basándose en una simetría y/o uniformidad de los colores en dicho histograma. En una realización, se prevé que los parámetros puedan estar preestablecidos en los clasificadores (es decir, definidos explícitamente). Se prevé, por ejemplo, que los clasificadores sean del tipo "una clase". Los clasificadores pueden configurarse para seleccionar, entre una pluralidad de parámetros preestablecidos, uno o más parámetros a utilizar durante la inspección (esta selección puede ser realizada por los clasificadores durante la etapa de aprendizaje). In one embodiment, the self-learning system includes classifiers. The classifiers are configured to classify the captured images based on parameters such as, for example, color, color gradient, color standard deviation in a neighborhood of one pixel, mean color in a neighborhood of one pixel or others. Specifically, the classifiers can be programmed to construct a histogram representative of a distribution of colors in the image and to classify the image based on a symmetry and/or uniformity of the colors in said histogram. In one embodiment, it is envisioned that the parameters may be preset in the classifiers (i.e., explicitly defined). For example, classifiers are expected to be of the "one class" type. The classifiers can be configured to select, from a plurality of preset parameters, one or more parameters to use during the inspection (this selection can be made by the classifiers during the learning stage).

En una realización, los clasificadores son ramas de toma de decisiones. En particular, se prevé que los clasificadores de "una clase" sean ramas de toma de decisiones del tipo "bosque aleatorio". Se observa que estos clasificadores pueden entrenarse (únicamente) con imágenes de objetos sin defectos (ya que el clasificador pertenece a la tipología "una clase"). In one embodiment, the classifiers are decision-making branches. In particular, "one-class" classifiers are expected to be "random forest" decision-making branches. It is observed that these classifiers can be trained (only) with images of objects without defects (since the classifier belongs to the "one class" typology).

En una realización preferida, el sistema de autoaprendizaje incluye redes neuronales. En particular, el sistema de autoaprendizaje puede incluir redes neuronales convolucionales. In a preferred embodiment, the self-learning system includes neural networks. In particular, the self-learning system may include convolutional neural networks.

Por "redes neuronales convolucionales" se entiende redes neuronales configuradas para codificar la imagen a través de una serie de etapas de convolución alternados con una serie de etapas de agrupación para derivar los valores de la pluralidad de características de la imagen. En las etapas de convolución, se aplican filtros de convolución (cuyos valores son parte de los datos de referencia) a la imagen (es decir, a la matriz de píxeles que representan cada color de la imagen) para derivar una imagen transformada; en las etapas de agrupación, se reduce una dimensión de la imagen transformada, por ejemplo, mediante una operación matemática máxima, mínima o media entre píxeles adyacentes. Por tanto, las etapas de convolución y agrupación se utilizan para obtener los valores de la pluralidad de características de la imagen. By "convolutional neural networks" we mean neural networks configured to encode the image through a series of convolution stages alternating with a series of pooling stages to derive the values of the plurality of image features. In the convolution stages, convolution filters (whose values are part of the reference data) are applied to the image (i.e., to the array of pixels representing each color in the image) to derive a transformed image; In the pooling stages, a dimension of the transformed image is reduced, for example, by a maximum, minimum or average mathematical operation between adjacent pixels. Therefore, the convolution and pooling stages are used to obtain the values of the plurality of image features.

En una realización, las redes neuronales están preentrenadas para extraer (es decir, derivar) los valores de la pluralidad de características de la imagen; en una realización, las redes neuronales pueden incluir redes neuronales conocidas (o partes de las mismas) configuradas para identificar sujetos en una imagen (por ejemplo, basándose en un conjunto de datos "ImageNet"). In one embodiment, the neural networks are pretrained to extract (i.e., derive) values from the plurality of image features; In one embodiment, the neural networks may include known neural networks (or parts thereof) configured to identify subjects in an image (e.g., based on an "ImageNet" data set).

En una realización, las redes neuronales convolucionales están configuradas para clasificar la imagen en función de los valores de la pluralidad de características de la imagen, en comparación con los valores de referencia (que forman parte de los datos de referencia). En una realización, la imagen se clasifica como que representa un parisón bueno o un parisón defectuoso; en otra realización, la imagen se clasifica como que representa un parisón bueno o un parisón que tiene un defecto específico. En una realización, las redes neuronales incluyen clasificadores de "detección de anomalías" o redes "completamente conectadas" para clasificar la imagen en función de los valores de la pluralidad de características de la imagen. Por ejemplo, para extraer (es decir, derivar los valores de las características de la imagen), se utiliza una parte de una red conocida basada en un conjunto de datos como "ImageNet", la red que incluye convolución y agrupación (de ahí una red previamente entrenada), y para clasificar la imagen se utiliza una red "completamente conectada" entrenada por el sistema de autoaprendizaje (preferiblemente con ejemplos de parisones buenos y ejemplos de parisones defectuosos) y que es capaz de distinguir un parisón bueno de uno defectuoso parisón sobre la base de los valores de las características de la imagen. In one embodiment, the convolutional neural networks are configured to classify the image based on the values of the plurality of features in the image, compared to the reference values (which are part of the reference data). In one embodiment, the image is classified as representing a good parison or a bad parison; In another embodiment, the image is classified as representing a good parison or a parison having a specific defect. In one embodiment, the neural networks include "anomaly detection" classifiers or "fully connected" networks to classify the image based on the values of the plurality of image features. For example, to extract (i.e. derive image feature values), a part of a well-known data set-based network such as "ImageNet" is used, the network that includes convolution and pooling (hence a previously trained network), and to classify the image a "fully connected" network is used, trained by the self-learning system (preferably with examples of good parisons and examples of bad parisons) and which is capable of distinguishing a good parison from a bad parison. based on image feature values.

En una realización, el sistema de aprendizaje incluye redes neuronales del tipo conocido como "Redes Generativas Adversarias" (GAN); las Redes Generativas Adversarias incluyen un generador y un discriminador; el generador utiliza los valores de la pluralidad de características de la imagen (obtenidas con la etapa de convolución a partir de una imagen real capturada por el detector) para generar una imagen reconstruida correspondiente y la pasa al discriminador; el discriminador intenta distinguir si la imagen que recibe es real -es decir, capturada por el detector- o reconstruida, y envía retroalimentación al generador; basándose en la retroalimentación del discriminador, el generador aprende a generar imágenes reconstruidas que sean lo más similares posible a las imágenes reales (de modo que el discriminador las considere reales). Durante el entrenamiento, la GAN recibe preferiblemente imágenes de parisones buenos; así, cuando el sistema de procesamiento utiliza los datos de referencia (y las características de la imagen) determinados por el sistema de autoaprendizaje para inspeccionar los parisones, el discriminador reconoce como imágenes reconstruidas sólo aquellas relacionadas con parisones defectuosos. In one embodiment, the learning system includes neural networks of the type known as "Generative Adversarial Networks" (GAN); Generative Adversarial Networks include a generator and a discriminator; the generator uses the values of the plurality of image features (obtained with the convolution stage from a real image captured by the detector) to generate a corresponding reconstructed image and passes it to the discriminator; the discriminator tries to distinguish whether the image it receives is real - that is, captured by the detector - or reconstructed, and sends feedback to the generator; Based on feedback from the discriminator, the generator learns to generate reconstructed images that are as similar as possible to the real images (so that the discriminator considers them real). During training, the GAN preferably receives images of good parisons; thus, when the processing system uses the reference data (and image features) determined by the self-learning system to inspect the parisons, the discriminator recognizes as reconstructed images only those related to defective parisons.

En una realización preferida, el sistema de autoaprendizaje incluye una red neuronal convolucional "autocodificadora". En una realización, los datos de referencia incluyen un primer conjunto de datos de referencia y un segundo conjunto de datos de referencia. El primer conjunto de datos de referencia se relaciona con una serie de etapas de convolución (por ejemplo, incluye una pluralidad de filtros de convolución); el segundo conjunto de datos de referencia se relaciona con una serie de etapas de muestreo ascendente. En particular, el segundo conjunto de datos de referencia puede estar relacionado con una serie de etapas de deconvolución (por ejemplo, incluye una pluralidad de filtros de deconvolución). Las redes neuronales de codificador automático están configuradas para extraer (es decir, derivar) valores de la pluralidad de características de referencia de la imagen, en función del primer conjunto de datos de referencia relacionados con la serie de etapas de convolución y para reconstruir la imagen (es decir, generar la imagen reconstruida) utilizando los valores de la pluralidad de características de la imagen, basándose en el segundo conjunto de datos de referencia relacionados con la serie de etapas de deconvolución. In a preferred embodiment, the self-learning system includes an "autoencoder" convolutional neural network. In one embodiment, the reference data includes a first set of reference data and a second set of reference data. The first reference data set relates to a series of convolution stages (for example, includes a plurality of convolution filters); The second set of reference data relates to a series of upsampling stages. In particular, the second reference data set may be related to a series of deconvolution steps (for example, includes a plurality of deconvolution filters). The autoencoder neural networks are configured to extract (i.e., derive) values from the plurality of reference features of the image, based on the first set of reference data related to the series of convolution steps, and to reconstruct the image. (i.e., generating the reconstructed image) using the values of the plurality of image features, based on the second set of reference data related to the series of deconvolution steps.

En la realización que incluye una red de codificador automático, el sistema de aprendizaje está configurado para recibir como entrada una pluralidad de imágenes de parisones buenos para derivar de ellas los valores correspondientes de las características de la imagen, basándose en el primer conjunto de datos de referencia; el sistema de aprendizaje está configurado para generar una pluralidad de imágenes reconstruidas usando los valores de las características de la imagen y basándose en el segundo conjunto de datos de referencia relacionados con las etapas de deconvolución; por último, el sistema de autoaprendizaje está configurado para comparar la pluralidad de imágenes reconstruidas con la correspondiente pluralidad de imágenes originales y para actualizar los datos de referencia (específicamente, el primer conjunto de datos de referencia o el segundo conjunto de datos de referencia o tanto el primero como el segundo conjuntos de datos de referencia combinados) para minimizar la diferencia entre las imágenes originales capturadas por el detector y las imágenes reconstruidas correspondientes. Más específicamente, en una realización, el sistema de autoaprendizaje está configurado para derivar, para cada imagen, un parámetro de similitud (por ejemplo, calculado con una de las siguientes funciones, o con una combinación de dos o más de las siguientes funciones: norma 11, norma I2, índice de similitud estructural "SSIM", relación pico señal-ruido "PSNR", índice de similitud perceptual basado en wavelets de Haar "HaarPSI") y minimizar el parámetro de similitud (es decir, llevarlo por debajo de un cierto umbral) si el parámetro de similitud es directamente proporcional a una diferencia entre las imágenes, o viceversa, maximizarlo (es decir, llevarlo por encima de un cierto umbral) si el parámetro de similitud es directamente proporcional a una similitud entre las imágenes. En la realización que incluye una red de codificador automático, el sistema de aprendizaje está configurado para actualizar, en combinación con el primer y segundo conjunto de datos de referencia, los filtros de la red (y, en consecuencia, la pluralidad de características de la imagen), para identificar las características de la imagen que mejor representan imágenes de parisones libres de defectos e identificar conjuntamente las etapas de convolución para derivarlos y las etapas de deconvolución para generar la imagen reconstruida utilizando esas características de la imagen. Preferiblemente, el sistema de autoaprendizaje que comprende una red de autocodificador está restringido a al menos un criterio predeterminado (es decir, una restricción) al codificar la imagen; por ejemplo, el criterio puede considerar un número máximo de características de imagen que pueden identificarse para esa pluralidad de características de imagen. Así, en la práctica, la operación de codificación constituye una compresión de la imagen. In the embodiment that includes an autoencoder network, the learning system is configured to receive as input a plurality of good parison images to derive corresponding values of the image features, based on the first set of data of reference; the learning system is configured to generate a plurality of reconstructed images using the image feature values and based on the second set of reference data related to the deconvolution steps; Finally, the self-learning system is configured to compare the plurality of reconstructed images with the corresponding plurality of original images and to update the reference data (specifically, the first set of reference data or the second set of reference data or both the first as the second combined reference data sets) to minimize the difference between the original images captured by the detector and the corresponding reconstructed images. More specifically, in one embodiment, the self-learning system is configured to derive, for each image, a similarity parameter (e.g., calculated with one of the following functions, or with a combination of two or more of the following functions: norm 11, I2 norm, structural similarity index "SSIM", peak signal-to-noise ratio "PSNR", Haar wavelet-based perceptual similarity index "HaarPSI") and minimize the similarity parameter (i.e., bring it below a certain threshold) if the similarity parameter is directly proportional to a difference between the images, or vice versa, maximize it (i.e., take it above a certain threshold) if the similarity parameter is directly proportional to a similarity between the images. In the embodiment that includes an autoencoder network, the learning system is configured to update, in combination with the first and second set of reference data, the filters of the network (and, consequently, the plurality of characteristics of the image), to identify the image features that best represent images of defect-free parisons and jointly identify the convolution stages to derive them and the deconvolution stages to generate the reconstructed image using those image features. Preferably, the self-learning system comprising an autoencoder network is constrained to at least one predetermined criterion (i.e., a constraint) when encoding the image; for example, the criterion may consider a maximum number of image features that can be identified for that plurality of image features. Thus, in practice, the encoding operation constitutes a compression of the image.

Así, en una realización, el sistema de autoaprendizaje está configurado para aprender los datos de referencia y las características de la imagen que el sistema de procesamiento utiliza luego para inspeccionar los parisones. En la realización que incluye una red de codificador automático, el sistema de autoaprendizaje se entrena con una pluralidad de parisones que son buenos (libres de defectos); así, el sistema de autoaprendizaje determina los datos de referencia y las características de la imagen utilizadas para reconstruir correctamente las imágenes de los parisones buenos (es decir, con un alto nivel de similitud entre las imágenes capturadas por el detector y las imágenes reconstruidas correspondientes); cuando aplica esos datos de referencia y características de la imagen a un parisón defectuoso, la imagen reconstruida es significativamente diferente de la imagen capturada correspondiente y el sistema de procesamiento, cuando los compara, identifica el parisón como defectuoso. Thus, in one embodiment, the self-learning system is configured to learn reference data and image features that the processing system then uses to inspect parisons. In the embodiment including an autoencoder network, the self-learning system is trained with a plurality of parisons that are good (defect-free); Thus, the self-learning system determines the reference data and image features used to correctly reconstruct the images of the good parisons (i.e., with a high level of similarity between the images captured by the detector and the corresponding reconstructed images) ; When you apply those reference data and image features to a defective parison, the reconstructed image is significantly different from the corresponding captured image and the processing system, when compared, identifies the parison as defective.

Se observa que la comparación entre la imagen capturada y la imagen reconstruida se realiza tanto durante el aprendizaje (o entrenamiento) de la red como durante la inspección; el parámetro de similitud que se utiliza para la capacitación puede ser diferente del parámetro de similitud que se utilizará durante la inspección. En particular, las funciones "PSNR", "HaarPSI" se utilizan preferentemente durante la inspección, pero no durante el entrenamiento. Por ejemplo, está previsto utilizar, para el entrenamiento, la función "SSIM" o la función norma I1 o la función norma I2, y, para la inspección, la función "PSNR" o la función "HaarPSI". It is observed that the comparison between the captured image and the reconstructed image is carried out both during learning (or training) of the network and during inspection; The similarity parameter used for training may be different from the similarity parameter that will be used during inspection. In particular, the functions "PSNR", "HaarPSI" are preferably used during inspection, but not during training. For example, it is planned to use, for training, the "SSIM" function or the I1 standard function or the I2 standard function, and for inspection the "PSNR" function or the "HaarPSI" function.

Preferiblemente, el sistema de autoaprendizaje (o el sistema de procesamiento) incluye una primera (sub)red neuronal responsable de codificar las imágenes para derivar los valores de las características de la imagen y una segunda (sub)red neuronal responsable de codificar las imágenes para derivar los valores de las características de la imagen para decodificar los valores de las características de la imagen con el fin de reconstruir la imagen; la primera y la segunda (sub)red neuronal se entrenan conjuntamente. La primera y la segunda (sub)red neuronal pueden ser partes de una única red neuronal. Preferably, the self-learning system (or processing system) includes a first neural (sub)network responsible for encoding the images to derive image feature values and a second neural (sub)network responsible for encoding the images to deriving the image feature values to decode the image feature values in order to reconstruct the image; the first and second neural (sub)networks are trained together. The first and second (sub)neural networks may be parts of a single neural network.

Esta divulgación también proporciona una línea para fabricar recipientes a partir de material termoplástico. This disclosure also provides a line for manufacturing containers from thermoplastic material.

En una realización, la línea comprende una máquina de moldeo configurada para hacer parisones. En una realización, la máquina de moldeo es una máquina de moldeo por inyección. En una realización, la máquina de moldeo es una máquina de moldeo por compresión (que puede ser una máquina rotativa). In one embodiment, the line comprises a molding machine configured to make parisons. In one embodiment, the molding machine is an injection molding machine. In one embodiment, the molding machine is a compression molding machine (which may be a rotary machine).

En una realización, la línea comprende una unidad de acondicionamiento térmico para calentar y/o enfriar los parisones. Para facilitar la descripción, la unidad de acondicionamiento térmico se denomina en lo sucesivo "horno de calentamiento" sin limitar por ello el alcance de la divulgación. El horno de calentamiento está configurado para recibir los parisones que salen de la máquina de moldeo y está equipado con medios de calentamiento para calentar los parisones. In one embodiment, the line comprises a thermal conditioning unit for heating and/or cooling the parisons. For ease of description, the thermal conditioning unit is hereinafter referred to as "heating oven" without limiting the scope of the disclosure. The heating oven is configured to receive the parisons exiting the molding machine and is equipped with heating means for heating the parisons.

En una realización, la línea comprende una máquina de moldeo por soplado configurada para recibir los parisones y moldearlos por soplado en moldes para fabricar los contenedores. Preferiblemente, la máquina de moldeo por soplado está configurada para recibir los parisones calentados en el horno de calentamiento. El horno puede estar integrado en la máquina sopladora. In one embodiment, the line comprises a blow molding machine configured to receive the parisons and blow mold them into molds to manufacture the containers. Preferably, the blow molding machine is configured to receive the parisons heated in the heating oven. The oven can be integrated into the blowing machine.

En una realización, la máquina de moldeo por soplado y la máquina de moldeo de parisones podrían estar ubicadas en diferentes líneas (incluso instaladas en fábricas separadas) trabajando en conjunto para fabricar recipientes de material termoplástico: en efecto, la máquina de moldeo fabrica parisones que son se alimenta a la línea que incluye la máquina sopladora. Preferiblemente, el horno está integrado en la línea que incluye la máquina de soplado, aguas arriba de la máquina de soplado para calentar los parisones antes de soplarlos. In one embodiment, the blow molding machine and the parison molding machine could be located on different lines (even installed in separate factories) working together to manufacture thermoplastic material containers: in effect, the molding machine manufactures parisons that are fed to the line that includes the blowing machine. Preferably, the oven is integrated into the line that includes the blowing machine, upstream of the blowing machine to heat the parisons before blowing them.

En una realización, la línea comprende una unidad de almacenamiento (que puede ser automática) para recibir los parisones y almacenarlos; la unidad de almacenamiento está configurada para recibir los parisones de la máquina de moldeo y alimentarlos a la máquina de moldeo por soplado o al horno. In one embodiment, the line comprises a storage unit (which may be automatic) for receiving the parisons and storing them; The storage unit is configured to receive the parisons from the molding machine and feed them to the blow molding machine or oven.

En una realización, la línea comprende un dispositivo para la inspección óptica de parisones de acuerdo con uno o más aspectos de esta divulgación. El dispositivo de inspección óptica se encuentra en la línea detrás de la máquina de moldeo. El dispositivo de inspección óptica está ubicado en la línea anterior a la máquina de soplado. En una realización, el dispositivo de inspección óptica está ubicado aguas abajo de la máquina de moldeo y aguas arriba del horno. En una realización, el dispositivo de inspección óptica está ubicado detrás del horno y delante de la máquina de soplado. El hecho de que el dispositivo esté ubicado aguas arriba de la máquina de soplado permite identificar un preformado defectuoso antes de que explote durante el soplado debido a su perfil de tensiones anómalo. En una realización, el dispositivo de inspección óptica podría colocarse en la unidad de almacenamiento o en un transportador que conecta la unidad de almacenamiento con otras partes de la línea. In one embodiment, the line comprises a device for optical inspection of parisons according to one or more aspects of this disclosure. The optical inspection device is located on the line behind the molding machine. The optical inspection device is located in the line before the blowing machine. In one embodiment, the optical inspection device is located downstream of the molding machine and upstream of the oven. In one embodiment, the optical inspection device is located behind the oven and in front of the blowing machine. The fact that the device is located upstream of the blowing machine allows a defective preform to be identified before it explodes during blowing due to its abnormal stress profile. In one embodiment, the optical inspection device could be placed on the storage unit or on a conveyor that connects the storage unit to other parts of the line.

En una realización, el dispositivo de inspección óptica está ubicado en la línea de tal manera que inspeccione los parisones a una temperatura de entre 30 y 70 grados Celsius (preferiblemente entre 50 y 60 grados Celsius). Los parisones pueden estar a esta temperatura cuando salen de la máquina de moldeo, por ejemplo. In one embodiment, the optical inspection device is located on the line such that it inspects the parisons at a temperature of between 30 and 70 degrees Celsius (preferably between 50 and 60 degrees Celsius). The parisons may be at this temperature when they come out of the molding machine, for example.

En una realización, el dispositivo de inspección óptica está ubicado en la línea de tal manera que inspeccione los parisones a una temperatura ambiente (por ejemplo, entre 5 y 30 grados Celsius). Los parisones pueden estar a temperatura ambiente si se almacenan o se enfrían después del moldeo. Preferiblemente, el dispositivo de inspección óptica está ubicado en la línea de tal manera que inspeccione los parisones a una temperatura inferior a 60 grados Celsius (preferiblemente inferior a 50 grados Celsius); de hecho, a temperaturas más altas, los parisones podrían estar sujetos a deformaciones que podrían alterar sus perfiles de tensión. In one embodiment, the optical inspection device is located on the line such that it inspects the parisons at an ambient temperature (e.g., between 5 and 30 degrees Celsius). Parisons can be at room temperature if stored or cooled after molding. Preferably, the optical inspection device is located on the line such that it inspects the parisons at a temperature below 60 degrees Celsius (preferably below 50 degrees Celsius); in fact, at higher temperatures, parisons could be subject to deformations that could alter their stress profiles.

En una realización, el dispositivo de inspección óptica está integrado en el horno. Si el dispositivo de inspección óptica está integrado en el horno (preferiblemente aguas arriba de los calentadores, es decir, a la entrada del horno), es posible aprovechar la colocación de los parisones en el interior del horno, singularizados y ordenados. In one embodiment, the optical inspection device is integrated into the oven. If the optical inspection device is integrated into the oven (preferably upstream of the heaters, that is, at the entrance to the oven), it is possible to take advantage of the placement of the parisons inside the oven, singularized and ordered.

En otras realizaciones, el dispositivo de inspección óptica de acuerdo con esta divulgación está ubicado fuera de línea, integrado en una máquina de revisión de alta velocidad o en una máquina de muestreo de baja velocidad. In other embodiments, the optical inspection device according to this disclosure is located offline, integrated into a high-speed screening machine or a low-speed sampling machine.

Esta divulgación también se refiere a un método para la inspección óptica de parisones. El método de inspección óptica comprende una etapa de emitir, con un iluminador, un haz de luz dirigido a un parisón ubicado en una posición de inspección. El método de inspección óptica comprende una etapa de capturar, con un detector, una imagen del parisón ubicado en la posición de inspección. En la posición de inspección, el parisón está operativamente interpuesto entre el iluminador y el detector. La imagen capturada es, por tanto, una imagen retroiluminada. This disclosure also relates to a method for optical inspection of parisons. The optical inspection method comprises a step of emitting, with an illuminator, a beam of light directed at a parison located in an inspection position. The optical inspection method comprises a step of capturing, with a detector, an image of the parison located in the inspection position. In the inspection position, the parison is operatively interposed between the illuminator and the detector. The captured image is therefore a backlit image.

En una realización, el método de inspección óptica comprende una etapa de generar un haz de luz polarizada interceptando el haz de luz emitido por el iluminador en un filtro polarizador de emisión interpuesto entre el iluminador y el parisón. In one embodiment, the optical inspection method comprises a step of generating a polarized light beam by intercepting the light beam emitted by the illuminator in a polarizing emission filter interposed between the illuminator and the parison.

En una realización, el método de inspección óptica comprende una etapa de recibir el haz de luz polarizada en un filtro polarizador receptor. En la posición de inspección, el parisón está interpuesto operativamente entre el filtro polarizador de emisión y el filtro polarizador receptor. In one embodiment, the optical inspection method comprises a step of receiving the polarized light beam into a receiving polarizing filter. In the inspection position, the parison is operatively interposed between the emission polarizing filter and the receiving polarizing filter.

En una realización, el parisón está hecho de un material que incluye cadenas de polímero (preferiblemente PET). En una realización, la imagen capturada por el detector incluye un patrón de color que representa una tensión a la que están sometidas las cadenas poliméricas del PET. In one embodiment, the parison is made of a material that includes polymer chains (preferably PET). In one embodiment, the image captured by the detector includes a color pattern that represents a stress to which the PET polymer chains are subjected.

En una realización, el método de inspección óptica comprende una etapa de procesamiento de la imagen (usando un sistema de procesamiento). En una realización, en la etapa de procesamiento, la imagen capturada por el detector se procesa basándose en datos de referencia contenidos en una memoria. En una realización, la etapa de procesamiento incluye derivar la indicación de diagnóstico con respecto al defecto del parisón. In one embodiment, the optical inspection method comprises an image processing step (using a processing system). In one embodiment, in the processing step, the image captured by the detector is processed based on reference data contained in a memory. In one embodiment, the processing step includes deriving the diagnostic indication with respect to the parison defect.

En una realización, la etapa de procesamiento incluye una subetapa de codificar la imagen capturada por el detector, basándose en datos de referencia, para derivar valores de una pluralidad de características de imagen a partir de la imagen. In one embodiment, the processing step includes a substep of encoding the image captured by the detector, based on reference data, to derive values of a plurality of image features from the image.

En una realización, la etapa de procesamiento incluye procesar la pluralidad de características de imagen para derivar la indicación de diagnóstico con respecto al defecto del parisón. Más específicamente, en una realización, la etapa de procesamiento incluye una subetapa de generar una imagen reconstruida a partir de los valores de la pluralidad de características de la imagen y en base a los datos de referencia. En una realización, la etapa de procesamiento incluye una subetapa de derivar la indicación de diagnóstico con respecto al defecto del parisón en función de comparar la imagen capturada por el detector con la imagen reconstruida. In one embodiment, the processing step includes processing the plurality of image features to derive the diagnostic indication regarding the parison defect. More specifically, in one embodiment, the processing step includes a substep of generating a reconstructed image from the values of the plurality of image features and based on the reference data. In one embodiment, the processing step includes a substep of deriving the diagnostic indication with respect to the parison defect based on comparing the image captured by the detector with the reconstructed image.

En una realización, el método comprende una etapa de autoaprendizaje (realizada por un sistema de autoaprendizaje conectado al sistema de procesamiento). En una realización, la etapa de autoaprendizaje comprende una subetapa de capturar una pluralidad de imágenes para una pluralidad correspondiente de parisones. En una realización, la etapa de autoaprendizaje comprende una subetapa de codificar cada imagen de la pluralidad de imágenes basándose en los datos de referencia, incluyendo derivar, de cada imagen de la pluralidad de imágenes, valores correspondientes de una pluralidad de características de imagen de acuerdo con un criterio predeterminado (que puede incluir una restricción en el número máximo de características de imagen de la pluralidad de características de imagen). En una realización, la etapa de autoaprendizaje comprende una subetapa de generar para cada imagen de la pluralidad de imágenes, una imagen correspondiente reconstruida a partir de los valores correspondientes de la pluralidad de características de imagen y en base a los datos de referencia. En una realización, la etapa de autoaprendizaje comprende una subetapa de comparar cada imagen de la pluralidad de imágenes con la imagen reconstruida correspondiente y derivar un parámetro de similitud correspondiente que representa una similitud entre la imagen capturada por el detector y la imagen reconstruida correspondiente. En una realización, la etapa de autoaprendizaje comprende una subetapa de actualización de los datos de referencia y/o la pluralidad de características de la imagen en función del parámetro de similitud y de un valor umbral predeterminado. Más específicamente, los datos de referencia y la pluralidad de características de la imagen se actualizan de tal manera que el parámetro de similitud sea menor (o mayor que) el valor umbral predeterminado. In one embodiment, the method comprises a self-learning step (performed by a self-learning system connected to the processing system). In one embodiment, the self-learning step comprises a substep of capturing a plurality of images for a corresponding plurality of parisons. In one embodiment, the self-learning step comprises a substep of encoding each image of the plurality of images based on the reference data, including deriving, from each image of the plurality of images, corresponding values of a plurality of image characteristics according to with a predetermined criterion (which may include a restriction on the maximum number of image features of the plurality of image features). In one embodiment, the self-learning step comprises a substep of generating for each image of the plurality of images, a corresponding image reconstructed from the corresponding values of the plurality of image features and based on the reference data. In one embodiment, the self-learning step comprises a substep of comparing each image of the plurality of images with the corresponding reconstructed image and deriving a corresponding similarity parameter that represents a similarity between the image captured by the detector and the corresponding reconstructed image. In one embodiment, the self-learning step comprises a sub-step of updating the reference data and/or the plurality of image features based on the similarity parameter and a predetermined threshold value. More specifically, the reference data and the plurality of image features are updated such that the similarity parameter is less than (or greater than) the predetermined threshold value.

En una realización, las imágenes de la pluralidad de imágenes capturadas por la cámara durante la etapa de autoaprendizaje representan una pluralidad correspondiente de parisones libres de defectos. El hecho de que el sistema de autoaprendizaje no necesite recibir imágenes de parisones defectuosos como entrada es muy ventajoso porque los parisones defectuosos son difíciles de encontrar. In one embodiment, the images of the plurality of images captured by the camera during the self-learning stage represent a corresponding plurality of defect-free parisons. The fact that the self-learning system does not need to receive images of defective parisons as input is very advantageous because defective parisons are difficult to find.

Preferiblemente, el filtro polarizador de emisión y el filtro polarizador de recepción están orientados entre sí de acuerdo con una orientación predeterminada (por ejemplo, paralela o perpendicular) que es la misma en la etapa de autoaprendizaje y en la etapa de procesamiento. Preferably, the emission polarizing filter and the receiving polarizing filter are oriented relative to each other according to a predetermined orientation (e.g., parallel or perpendicular) that is the same in the self-learning stage and in the processing stage.

En una realización, el método comprende una etapa de alimentar los parisones de la pluralidad de parisones a la posición de inspección uno a la vez (en sucesión). En una realización, los parisones se alimentan de acuerdo con una orientación predeterminada con respecto al filtro polarizador de emisión y con respecto al filtro polarizador receptor. Esa orientación es la misma en la etapa de autoaprendizaje y en la etapa de procesamiento. La imagen de cada parisón de la pluralidad de parisones se captura cuando el parisón está en la posición de inspección. In one embodiment, the method comprises a step of feeding the parisons of the plurality of parisons to the inspection position one at a time (in succession). In one embodiment, the parisons are fed according to a predetermined orientation with respect to the emission polarizing filter and with respect to the receiving polarizing filter. This orientation is the same in the self-learning stage and in the processing stage. The image of each parison of the plurality of parisons is captured when the parison is in the inspection position.

En una realización, el procesador está configurado para procesar las imágenes orientadas al azar (por ejemplo, rotándolas para llevarlas a una orientación predeterminada); por tanto, en una realización, el dispositivo es invariante con respecto a la orientación de los parisones. In one embodiment, the processor is configured to process randomly oriented images (e.g., rotating them to a predetermined orientation); Therefore, in one embodiment, the device is invariant with respect to the orientation of the parisons.

En una realización, el sistema de procesamiento está configurado para procesar la imagen del parisón en tiempo real (tan pronto como se captura la imagen). En una realización, cuando el dispositivo proporciona la indicación de diagnóstico que identifica el parisón como defectuoso, la línea está configurada para detenerse y permitir que un operador retire el parisón defectuoso o para que ella misma retire el parisón defectuoso. In one embodiment, the processing system is configured to process the parison image in real time (as soon as the image is captured). In one embodiment, when the device provides the diagnostic indication that identifies the parison as defective, the line is configured to stop and allow an operator to remove the defective parison or to itself remove the defective parison.

En otra realización, el sistema de procesamiento está configurado para capturar la imagen del parisón para procesarla en modo de procesamiento posterior. En este caso, el sistema está configurado para correlacionar cada imagen con el parisón respectivo para poder identificar el parisón cuya imagen produjo la indicación diagnóstica de parisón defectuoso. In another embodiment, the processing system is configured to capture the parison image for processing in post-processing mode. In this case, the system is configured to correlate each image with the respective parison in order to identify the parison whose image produced the defective parison diagnostic indication.

Esta divulgación también se refiere a un método para procesar una imagen de un parisón; se observa que el método para procesar una imagen de un parisón, per se, no es objeto de la invención reivindicada; sin embargo, el método para la inspección óptica de parisones de acuerdo con la invención incluye el procesamiento de imágenes, por lo que el contenido de la divulgación con respecto al método para procesar una imagen de un parisón es pertinente para la invención. En una realización, el método de procesamiento de imágenes incluye una etapa de codificar la imagen, que incluye derivar valores de una pluralidad de características de la imagen. En una realización, el método de procesamiento de imágenes incluye una etapa de generar una imagen reconstruida en función de la pluralidad de características de la imagen. En una realización, el método de procesamiento de imágenes incluye una etapa de derivar la indicación de diagnóstico con respecto al defecto del parisón en función de comparar la imagen capturada por la cámara con la imagen reconstruida. This disclosure also relates to a method of processing an image of a parison; It is noted that the method for processing an image of a parison, per se, is not the object of the claimed invention; However, the method for optical inspection of parisons according to the invention includes image processing, so the content of the disclosure regarding the method for processing an image of a parison is relevant to the invention. In one embodiment, the image processing method includes a step of encoding the image, which includes deriving values from a plurality of image features. In one embodiment, the image processing method includes a step of generating a reconstructed image based on the plurality of image features. In one embodiment, the image processing method includes a step of deriving the diagnostic indication regarding the parison defect based on comparing the image captured by the camera with the reconstructed image.

En una realización, el método de procesamiento de imágenes incluye una etapa de autoaprendizaje (de acuerdo con uno o más aspectos descritos en esta divulgación). In one embodiment, the image processing method includes a self-learning step (in accordance with one or more aspects described in this disclosure).

Esta divulgación también se refiere a un programa de computadora (software) que comprende instrucciones operativas configuradas para llevar a cabo los pasos del método de procesamiento de acuerdo con uno o más aspectos descritos en esta divulgación (cuando lo realiza un procesador, específicamente la unidad de procesamiento del dispositivo de acuerdo con uno o más aspectos descritos en esta divulgación). This disclosure also relates to a computer program (software) comprising operating instructions configured to carry out the steps of the processing method in accordance with one or more aspects described in this disclosure (when performed by a processor, specifically the processing unit). device processing according to one or more aspects described in this disclosure).

Breve descripción de dibujos Brief description of drawings

Estas y otras características se harán más evidentes a partir de la siguiente descripción detallada de una realización preferida, ilustrada a modo de ejemplo no limitativo en los dibujos adjuntos, en los que: These and other features will become more apparent from the following detailed description of a preferred embodiment, illustrated by way of non-limiting example in the accompanying drawings, in which:

La figura 1 ilustra un dispositivo de inspección óptica de acuerdo con esta divulgación; Figure 1 illustrates an optical inspection device according to this disclosure;

la figura 2 representa un proceso al que se somete una imagen mediante el dispositivo de inspección óptica de la figura 1; Figure 2 represents a process to which an image is subjected by the optical inspection device of Figure 1;

la figura 3 representa un proceso de autoaprendizaje realizado sobre una imagen por el dispositivo de inspección óptica de la figura 1; Figure 3 represents a self-learning process carried out on an image by the optical inspection device of Figure 1;

las figuras 4A, 4B y 4C muestran, para un parisón libre de defectos, una imagen capturada por una cámara, una imagen reconstruida y una comparación entre la imagen capturada y la imagen reconstruida, respectivamente; las figuras 5A, 5B y 5C muestran, para un parisón defectuoso, una imagen capturada por una cámara, una imagen reconstruida y una comparación entre la imagen capturada y la imagen reconstruida, respectivamente; Figures 4A, 4B and 4C show, for a defect-free parison, an image captured by a camera, a reconstructed image and a comparison between the captured image and the reconstructed image, respectively; Figures 5A, 5B and 5C show, for a defective parison, an image captured by a camera, a reconstructed image and a comparison between the captured image and the reconstructed image, respectively;

la figura 6 ilustra una línea para fabricar recipientes de material termoplástico, que comprende el dispositivo de la figura 1. Figure 6 illustrates a line for manufacturing containers of thermoplastic material, which includes the device of Figure 1.

Descripción detallada de las realizaciones preferidas de la invención Detailed description of preferred embodiments of the invention

Con referencia a los dibujos adjuntos, el número 1 indica un dispositivo de inspección óptica configurado para inspeccionar un parisón 2. With reference to the accompanying drawings, number 1 indicates an optical inspection device configured to inspect a parison 2.

El parisón 2 incluye un cuerpo 200 que tiene una forma sustancialmente cilíndrica. El parisón 2 (o el cuerpo 200) define un eje de simetría A. El cuerpo 200 es, por tanto, cilíndricamente simétrico con respecto al eje de simetría A. El parisón 2 incluye un fondo cerrado 201. El parisón 2 incluye un cuello 202 que define una abertura. El parisón 2 incluye un anillo 203. The parison 2 includes a body 200 having a substantially cylindrical shape. The parison 2 (or body 200) defines an axis of symmetry A. The body 200 is therefore cylindrically symmetrical with respect to the axis of symmetry A. The parison 2 includes a closed bottom 201. The parison 2 includes a neck 202 that defines an opening. Parison 2 includes a 203 ring.

El dispositivo 1 está configurado para recibir un parisón 2 en una posición de inspección 10. En una realización, la posición de inspección está definida por una cavidad de inspección. En una realización, el bolsillo de inspección incluye un elemento de soporte 11 configurado para sujetar el parisón 2 (preferiblemente soportando el anillo 203). The device 1 is configured to receive a parison 2 at an inspection position 10. In one embodiment, the inspection position is defined by an inspection cavity. In one embodiment, the inspection pocket includes a support member 11 configured to hold the parison 2 (preferably supporting the ring 203).

El dispositivo 1 incluye un iluminador 3. El iluminador 3 incluye una fuente de luz 31. La fuente de luz 31 está configurada para emitir un haz de luz dirigido a un parisón 2 (es decir, a una posición de inspección 10). El iluminador 3 incluye un filtro polarizador de emisión 32. En una realización, el filtro polarizador de emisión 32 está conectado a la fuente de luz 31. El filtro polarizador de emisión 32 está configurado para interceptar el haz de luz emitido por la fuente de luz 31 y polarizarlo. De este modo, el parisón 2 recibe un haz de luz polarizada del filtro polarizador de emisión 32 y lo refracta. The device 1 includes an illuminator 3. The illuminator 3 includes a light source 31. The light source 31 is configured to emit a light beam directed at a parison 2 (i.e., at an inspection position 10). The illuminator 3 includes an emission polarizing filter 32. In one embodiment, the emission polarizing filter 32 is connected to the light source 31. The emission polarizing filter 32 is configured to intercept the light beam emitted by the light source. 31 and polarize it. In this way, the parison 2 receives a beam of polarized light from the emission polarizing filter 32 and refracts it.

El dispositivo 1 incluye un detector 4. El detector 4 incluye una cámara 41. El detector incluye un filtro polarizador receptor 42. En una realización, el filtro polarizador receptor 42 está conectado a la cámara 41. El filtro polarizador receptor 42 está configurado para recibir el haz de luz refractado por el parisón 2 y polarizarlo. Así, la cámara 41 recibe el haz de luz polarizado por el filtro polarizador de emisión 32, refractado por el parisón y polarizado adicionalmente por el filtro polarizador receptor 42. La cámara 41 está configurada para capturar (o adquirir) una imagen 20 del parisón 2. The device 1 includes a detector 4. The detector 4 includes a camera 41. The detector includes a receiving polarizing filter 42. In one embodiment, the receiving polarizing filter 42 is connected to the camera 41. The receiving polarizing filter 42 is configured to receive the light beam refracted by parison 2 and polarize it. Thus, the camera 41 receives the light beam polarized by the emission polarizing filter 32, refracted by the parison and further polarized by the receiving polarizing filter 42. The camera 41 is configured to capture (or acquire) an image 20 of the parison 2 .

El iluminador 3 ilumina lateralmente el parisón 2 en un primer lado 200A del cuerpo 200. El detector 4 captura una imagen lateral del parisón 2 en un segundo lado 200B del cuerpo 200, opuesto al primer lado 200A. The illuminator 3 laterally illuminates the parison 2 on a first side 200A of the body 200. The detector 4 captures a lateral image of the parison 2 on a second side 200B of the body 200, opposite the first side 200A.

El dispositivo 1 incluye una memoria 5. La memoria 5 contiene datos de referencia. Más específicamente, la memoria 5 contiene al menos un primer conjunto de datos de referencia 51 y un segundo conjunto de datos de referencia 52; en una realización, el primer conjunto de datos de referencia 51 y el segundo conjunto de datos de referencia 52 son distintos entre sí. Device 1 includes memory 5. Memory 5 contains reference data. More specifically, the memory 5 contains at least a first set of reference data 51 and a second set of reference data 52; In one embodiment, the first reference data set 51 and the second reference data set 52 are distinct from each other.

El dispositivo 1 incluye un procesador 6. El procesador 6 está conectado a la memoria 5. El procesador 6 está programado para procesar la imagen 20 capturada por la cámara 41 basándose en los conjuntos de datos de referencia 51, 52, con el fin de derivar la indicación de diagnóstico 23 con respecto al defecto del parisón 2. Más específicamente, el procesador 6 está programado para realizar una etapa 61 de codificar la imagen 20 en función del primer conjunto de datos de referencia 51 para derivar valores de una pluralidad de características de imagen 21. El procesador 6 también está configurado para realizar una etapa 62 de decodificar las características de la imagen 21, generando así una imagen reconstruida 22, basada en el segundo conjunto de datos de referencia 52. The device 1 includes a processor 6. The processor 6 is connected to the memory 5. The processor 6 is programmed to process the image 20 captured by the camera 41 based on the reference data sets 51, 52, in order to derive the diagnostic indication 23 with respect to the parison defect 2. More specifically, the processor 6 is programmed to perform a step 61 of encoding the image 20 based on the first set of reference data 51 to derive values of a plurality of characteristics of image 21. The processor 6 is also configured to perform a step 62 of decoding the features of the image 21, thereby generating a reconstructed image 22, based on the second set of reference data 52.

Luego, el procesador 6 se configura para realizar una etapa 63 de comparar la imagen reconstruida 20 con la imagen capturada 22 para derivar una indicación de diagnóstico 23 con respecto al defecto del parisón 2. The processor 6 is then configured to perform a step 63 of comparing the reconstructed image 20 with the captured image 22 to derive a diagnostic indication 23 regarding the parison defect 2.

En una realización, la indicación de diagnóstico incluye un mapa de error 25 dado por una diferencia entre la imagen capturada 20 y la imagen reconstruida 22 (o viceversa). En una realización ilustrada en los dibujos, el mapa de errores 25 presenta un sombreado uniforme si el parisón es bueno o un sombreado parcheado si el parisón es defectuoso. In one embodiment, the diagnostic indication includes an error map 25 given by a difference between the captured image 20 and the reconstructed image 22 (or vice versa). In an embodiment illustrated in the drawings, the error map 25 has uniform shading if the parison is good or patchy shading if the parison is bad.

En una realización, la indicación de diagnóstico 23 incluye un parámetro de similitud 24 cuyo valor se correlaciona con un grado de similitud entre la imagen capturada 20 y la imagen reconstruida 22. En una realización, el procesador 6 está programado para derivar el parámetro de similitud 24 basándose en el mapa de errores 25. En una realización, la indicación de diagnóstico 23 incluye un valor de parámetro binario que indica si el parisón es bueno o defectuoso (calculado, por ejemplo, comparando el parámetro de similitud 24 con un valor umbral predeterminado). In one embodiment, the diagnostic indication 23 includes a similarity parameter 24 whose value correlates with a degree of similarity between the captured image 20 and the reconstructed image 22. In one embodiment, the processor 6 is programmed to derive the similarity parameter 24 based on the error map 25. In one embodiment, the diagnostic indication 23 includes a binary parameter value that indicates whether the parison is good or bad (calculated, for example, by comparing the similarity parameter 24 with a predetermined threshold value ).

En una realización, el dispositivo 1 (o preferiblemente el sistema de procesamiento) comprende un sistema de autoaprendizaje 7. El sistema de autoaprendizaje 7 está integrado preferentemente en el procesador 6. El sistema de autoaprendizaje 7 está conectado a la memoria 5. In one embodiment, the device 1 (or preferably the processing system) comprises a self-learning system 7. The self-learning system 7 is preferably integrated into the processor 6. The self-learning system 7 is connected to the memory 5.

El sistema de autoaprendizaje 7 está configurado para recibir una pluralidad de imágenes capturadas 20 para una pluralidad correspondiente de parisones 2. El sistema de autoaprendizaje 7 está configurado preferiblemente para realizar las siguientes etapas para cada imagen 20 que recibe: 61 codifica la imagen 20 sobre la base del primer conjunto de datos de referencia 51, para derivar una pluralidad de características de imagen 21; 62 decodificar las características de la imagen 21, sobre la base del segundo conjunto de datos de referencia 51, para generar una imagen reconstruida 22; 63 comparando la imagen reconstruida 22 con la imagen capturada 20 para derivar un parámetro de similitud 24 que representa una similitud entre la imagen capturada 20 y la imagen reconstruida 22. 70 evaluar el parámetro de similitud 24 con respecto a un valor umbral predeterminado 72 para ese parámetro de similitud; actualizar (iterativamente) el primer conjunto de datos de referencia 51, el segundo conjunto de datos de referencia 52 y las características de imagen 21 hasta que el parámetro de similitud 24 esté por encima (o por debajo) del parámetro de umbral 72. The self-learning system 7 is configured to receive a plurality of captured images 20 for a corresponding plurality of parisons 2. The self-learning system 7 is preferably configured to perform the following steps for each image 20 it receives: 61 encodes the image 20 onto the based on the first reference data set 51, to derive a plurality of image features 21; 62 decode the features of the image 21, based on the second reference data set 51, to generate a reconstructed image 22; 63 comparing the reconstructed image 22 with the captured image 20 to derive a similarity parameter 24 that represents a similarity between the captured image 20 and the reconstructed image 22. 70 evaluating the similarity parameter 24 with respect to a predetermined threshold value 72 for that similarity parameter; update (iteratively) the first reference data set 51, the second reference data set 52 and the image features 21 until the similarity parameter 24 is above (or below) the threshold parameter 72.

Así, el sistema de autoaprendizaje 7 resuelve el problema de optimizar las operaciones de codificación 61 y las operaciones de decodificación 62, donde las variables se definen por el primer conjunto de datos de referencia 51 y por el segundo conjunto de datos de referencia 52 (y, si es necesario, por el conjunto de características de imagen 21), para minimizar el parámetro de similitud 24, es decir, llevarlo por debajo de un cierto umbral, (o maximizarlo, es decir, llevarlo por encima de un cierto umbral). Preferiblemente, por lo tanto, el primer conjunto de datos de referencia 51 y el segundo conjunto de datos de referencia 52 se actualizan en combinación. Thus, the self-learning system 7 solves the problem of optimizing the encoding operations 61 and the decoding operations 62, where the variables are defined by the first set of reference data 51 and by the second set of reference data 52 (and , if necessary, by the set of image features 21), to minimize the similarity parameter 24, that is, bring it below a certain threshold, (or maximize it, that is, bring it above a certain threshold). Preferably, therefore, the first reference data set 51 and the second reference data set 52 are updated in combination.

Dado que el sistema de autoaprendizaje 7 optimiza las operaciones de codificación y decodificación 61 y 62 con imágenes 20 de parisones buenos 2, los conjuntos de datos de referencia 51, 52 (y, si es necesario, el conjunto de características de imagen 21) determinados como un resultado de la optimización es tal que, para buenos parisones 2, la diferencia entre la imagen capturada 20 y la imagen reconstruida 22 es mínima, por otro lado, dado que estas operaciones no están optimizadas para los parisones 2 defectuosos, la imagen reconstruida 22 para un parisón defectuoso es significativamente diferente de la imagen capturada 20 y el procesador 6 (reconociendo esa diferencia) genera una indicación de diagnóstico 23 que significa que el parisón está defectuoso. Since the self-learning system 7 optimizes the encoding and decoding operations 61 and 62 with images 20 of good parisons 2, the reference data sets 51, 52 (and, if necessary, the image feature set 21) determined as a result of the optimization is such that, for good parisons 2, the difference between the captured image 20 and the reconstructed image 22 is minimal, on the other hand, since these operations are not optimized for bad parisons 2, the reconstructed image 22 for a defective parison is significantly different from the captured image 20 and the processor 6 (recognizing that difference) generates a diagnostic indication 23 meaning that the parison is defective.

Preferiblemente, las etapas 61 de codificación, 62 decodificación, 63 comparación, 70 evaluación y actualización de los conjuntos de datos de referencia 51, 52 (y, si es necesario, las características de imagen 21) se realizan de forma iterativa por el sistema de autoaprendizaje 7 para cada imagen 20 en sucesión (es decir, todas las iteraciones necesarias para minimizar o maximizar el parámetro de similitud 24 se realizan primero para un primer parisón 2, luego para un segundo parisón 2 y así sucesivamente). En una realización, el sistema de autoaprendizaje también podría realizar una primera iteración en la que realiza las etapas 61 de codificación, 62 decodificación, 63 comparación y 70 evaluación de todas las imágenes 20; luego, a partir de los parámetros de similitud 24 obtenidos para todos los parisones 2, actualiza los conjuntos de datos de referencia 51, 52 (y, si es necesario, las características de la imagen 21) y continúa con una segunda iteración en la que vuelve a realizar las etapas 61 de codificación, 62 decodificación, 63 comparación y 70 evaluación de todas las imágenes 20, y así sucesivamente. Preferably, the steps 61 of encoding, 62 decoding, 63 comparing, 70 evaluating and updating the reference data sets 51, 52 (and, if necessary, the image features 21) are performed iteratively by the self-learning 7 for each image 20 in succession (i.e., all iterations necessary to minimize or maximize the similarity parameter 24 are performed first for a first parison 2, then for a second parison 2, and so on). In one embodiment, the self-learning system could also perform a first iteration in which it performs the steps 61 of encoding, 62 decoding, 63 comparing and 70 evaluating all images 20; then, from the similarity parameters 24 obtained for all parisons 2, it updates the reference data sets 51, 52 (and, if necessary, the image features 21) and continues with a second iteration in which re-performs the steps 61 of encoding, 62 decoding, 63 comparing and 70 evaluating all images 20, and so on.

Esta divulgación también se refiere a una línea 100 para fabricar recipientes de material termoplástico, por ejemplo, botellas. This disclosure also relates to a line 100 for manufacturing containers of thermoplastic material, for example, bottles.

La línea 100 comprende una máquina de moldeo 101 configurada para hacer (es decir, moldear) parisones 2. En una realización, la máquina de moldeo 101 es una máquina rotativa. La línea 100 también comprende un horno de calentamiento 102 configurado para recibir los parisones moldeados 2 y calentarlos. La línea 100 comprende una máquina de moldeo por soplado 103 configurada para moldear por soplado los parisones 2 para fabricar los contenedores. En una realización, la máquina de moldeo por soplado 103 es una máquina rotativa. Line 100 comprises a molding machine 101 configured to make (i.e., mold) parisons 2. In one embodiment, the molding machine 101 is a rotary machine. The line 100 also comprises a heating oven 102 configured to receive the molded parisons 2 and heat them. Line 100 comprises a blow molding machine 103 configured to blow mold the parisons 2 to manufacture the containers. In one embodiment, the blow molding machine 103 is a rotary machine.

Preferiblemente, la línea 100 incluye un primer carrusel de transferencia 106 configurado para transferir los parisones 2 desde la máquina de moldeo 101 al horno de calentamiento 102. Preferiblemente, la línea 100 incluye un segundo carrusel de transferencia 107 configurado para transferir los parisones 2 desde el horno de calentamiento 102 a la máquina de moldeo por soplado 103. En una realización, la línea 100 incluye una unidad de almacenamiento 104 para almacenar los parisones moldeados 2 antes de que se moldeen por soplado. En una realización, la línea 100 incluye un dispositivo de orientación de parisones 105 configurado para orientar los parisones 2 que salen y/o entran en la unidad de almacenamiento 104. En una realización, la línea 100 incluye un transportador 108 configurado para transportar los parisones 2 dentro y/o fuera de la unidad de almacenamiento 104. El transportador 108 alimenta los parisones 2 desde la unidad de almacenamiento 104 al horno de calentamiento 102. Preferably, the line 100 includes a first transfer carousel 106 configured to transfer the parisons 2 from the molding machine 101 to the heating oven 102. Preferably, the line 100 includes a second transfer carousel 107 configured to transfer the parisons 2 from the heating oven 102 to the blow molding machine 103. In one embodiment, the line 100 includes a storage unit 104 for storing the molded parisons 2 before they are blow molded. In one embodiment, line 100 includes a parison orientation device 105 configured to orient parisons 2 exiting and/or entering storage unit 104. In one embodiment, line 100 includes a conveyor 108 configured to transport parisons. 2 inside and/or outside the storage unit 104. The conveyor 108 feeds the parisons 2 from the storage unit 104 to the heating oven 102.

Claims (14)

REIVINDICACIONES 1. Un dispositivo (1) para la inspección óptica de parisones (2), que comprende:1. A device (1) for the optical inspection of parisons (2), comprising: - un iluminador (3) que incluye una fuente de luz (31) configurada para emitir un haz de luz dirigido hacia un parisón (2) ubicado en una posición de inspección (10);- an illuminator (3) that includes a light source (31) configured to emit a beam of light directed towards a parison (2) located in an inspection position (10); - un detector (4) que incluye una cámara (41) configurada para capturar una imagen (20) del parisón (2) ubicado en la posición de inspección (10), en el que el parisón (2), en la posición de inspección (10), está interpuesto operativamente entre el iluminador (3) y el detector (4),- a detector (4) that includes a camera (41) configured to capture an image (20) of the parison (2) located in the inspection position (10), in which the parison (2), in the inspection position (10), is operatively interposed between the illuminator (3) and the detector (4), en el que el iluminador (3) incluye un filtro polarizador de emisión (32) configurado para interceptar el haz de luz emitido por la fuente de luz (31) y generar un haz de luz polarizado, y en el que el detector (4) incluye un polarizador receptor filtro (42) configurado para recibir el haz de luz polarizada, de modo que el parisón (2), en la posición de inspección (10), quede interpuesto operativamente entre el filtro polarizador de emisión (32) y el filtro polarizador receptor (42);wherein the illuminator (3) includes a polarizing emission filter (32) configured to intercept the light beam emitted by the light source (31) and generate a polarized light beam, and wherein the detector (4) includes a polarizing receiving filter (42) configured to receive the polarized light beam, so that the parison (2), in the inspection position (10), is operatively interposed between the emission polarizing filter (32) and the filter receiving polarizer (42); - un sistema de autoaprendizaje;- a self-learning system; - una unidad de procesamiento que incluye:- a processing unit that includes: una memoria (5) que incluye conjuntos de datos de referencia (51, 52);a memory (5) that includes reference data sets (51, 52); un procesador (6) programado para procesar la imagen (20) capturada por el detector (4) en base a los conjuntos de datos de referencia (51, 52), con el fin de derivar una indicación de diagnóstico (23) con respecto a un defecto del parisón (2);, de modo que la indicación diagnóstica distinga entre una tipología de objetos con defectos y una tipología de objetos libres de defectos, siendo entrenada la unidad de procesamiento, por el sistema de autoaprendizaje, a través de muestras de objetos de la tipología libre de defectos,a processor (6) programmed to process the image (20) captured by the detector (4) based on the reference data sets (51, 52), in order to derive a diagnostic indication (23) with respect to a defect of the parison (2);, so that the diagnostic indication distinguishes between a typology of objects with defects and a typology of objects free of defects, the processing unit being trained, by the self-learning system, through samples of objects of the typology free of defects, en el que la unidad de procesamiento está configurada para:in which the processing unit is configured to: - procesar la imagen (20) capturada por el detector (4) basándose en los conjuntos de datos de referencia (51, 52), para derivar de la imagen (20) valores de una pluralidad de características de imagen (21);- processing the image (20) captured by the detector (4) based on the reference data sets (51, 52), to derive from the image (20) values of a plurality of image characteristics (21); - procesar los valores de la pluralidad de características de imagen (21) para derivar la indicación de diagnóstico (23) con respecto al defecto del parisón (2);- processing the values of the plurality of image features (21) to derive the diagnostic indication (23) with respect to the parison defect (2); - generar una imagen (22) reconstruida a partir de los valores de la pluralidad de características de imagen (21) y basada en los conjuntos de datos de referencia (51, 52);- generating an image (22) reconstructed from the values of the plurality of image features (21) and based on the reference data sets (51, 52); - derivar la indicación de diagnóstico (23) relativa al defecto del parisón (2) en función de comparar la imagen (20) capturada por el detector (4) con la imagen reconstruida (22).- deriving the diagnostic indication (23) relative to the parison defect (2) based on comparing the image (20) captured by the detector (4) with the reconstructed image (22). 2. El dispositivo (1) de acuerdo con la reivindicación 1, en el que el sistema de autoaprendizaje (7) está configurado para:2. The device (1) according to claim 1, wherein the self-learning system (7) is configured to: - recibir como entrada una pluralidad de imágenes (20) capturadas por el detector (4) para una pluralidad correspondiente de parisones (2);- receiving as input a plurality of images (20) captured by the detector (4) for a corresponding plurality of parisons (2); - procesar cada imagen (20) de la pluralidad de imágenes (20) capturadas por el detector (4) basándose en los conjuntos de datos de referencia (51, 52), con el fin de derivar para cada imagen (20) valores correspondientes para la pluralidad de características de imagen (21) basadas en un criterio predeterminado;- processing each image (20) of the plurality of images (20) captured by the detector (4) based on the reference data sets (51, 52), in order to derive for each image (20) corresponding values for the plurality of image characteristics (21) based on a predetermined criterion; - generar para cada imagen (20) de la pluralidad de imágenes (20) una imagen reconstruida correspondiente (22), basándose en los conjuntos de datos de referencia (51,52), utilizando los valores derivados correspondientes para la pluralidad de características de imagen (21);- generating for each image (20) of the plurality of images (20) a corresponding reconstructed image (22), based on the reference data sets (51,52), using the corresponding derived values for the plurality of image features (twenty-one); - comparar cada imagen (20) de la pluralidad de imágenes (20) capturadas por el detector (4) con la imagen reconstruida (22) correspondiente para derivar, para cada imagen (20) de la pluralidad de imágenes (20), un parámetro de similitud correspondiente (24) que representa una similitud entre la imagen (20) capturada por el detector (4) y la imagen reconstruida correspondiente (22);- comparing each image (20) of the plurality of images (20) captured by the detector (4) with the corresponding reconstructed image (22) to derive, for each image (20) of the plurality of images (20), a parameter corresponding similarity (24) that represents a similarity between the image (20) captured by the detector (4) and the corresponding reconstructed image (22); - para cada imagen (20) de la pluralidad de imágenes (20), actualizar los conjuntos de datos de referencia (51, 52) en función del parámetro de similitud (24) y de un valor umbral predeterminado (72) para el parámetro de similitud (24) .- for each image (20) of the plurality of images (20), updating the reference data sets (51, 52) based on the similarity parameter (24) and a predetermined threshold value (72) for the similarity parameter similarity (24) . 3. El dispositivo (1) de acuerdo con la reivindicación 2, en la que el sistema de autoaprendizaje (7) está configurado para actualizar la pluralidad de características de imagen (21) en función del parámetro de similitud (24) y del valor umbral predeterminado (72).3. The device (1) according to claim 2, wherein the self-learning system (7) is configured to update the plurality of image features (21) based on the similarity parameter (24) and the threshold value default (72). 4. El dispositivo (1) de acuerdo con la reivindicación 2 o 3, en las que el criterio predeterminado incluye un número máximo de características de imagen (21) para la pluralidad de características de imagen (21).4. The device (1) according to claim 2 or 3, wherein the predetermined criterion includes a maximum number of image features (21) for the plurality of image features (21). 5. El dispositivo (1) de acuerdo con cualquiera de las reivindicaciones 2 a 4, en las que el sistema de autoaprendizaje (7) incluye redes neuronales convolucionales configuradas para codificar imágenes a través de una serie de etapas de convolución alternados con una serie de etapas de agrupación para derivar los valores de la pluralidad de características de la imagen.5. The device (1) according to any of claims 2 to 4, wherein the self-learning system (7) includes convolutional neural networks configured to encode images through a series of convolution stages alternating with a series of pooling steps to derive values from the plurality of image features. 6. El dispositivo (1) de acuerdo con cualquiera de las reivindicaciones anteriores, en las que el filtro polarizador de emisión (32) es un filtro lineal, configurado para polarizar la luz en una primera dirección de polarización.6. The device (1) according to any of the preceding claims, wherein the emission polarizing filter (32) is a linear filter, configured to polarize light in a first polarization direction. 7. El dispositivo (1) de acuerdo con cualquiera de las reivindicaciones anteriores, en las que el filtro receptorpolarizador (42) es un filtro lineal, configurado para polarizar la luz en una segunda dirección de polarización.7. The device (1) according to any of the preceding claims, wherein the receiver-polarizing filter (42) is a linear filter, configured to polarize light in a second polarization direction. 8. El dispositivo (1) de acuerdo con cualquiera de las reivindicaciones anteriores, en las que los parisones (2) están hechos de PET y en el que la imagen capturada por el detector incluye un patrón de color que representa una tensión a la que están sometidas las cadenas poliméricas del PET.8. The device (1) according to any of the preceding claims, wherein the parisons (2) are made of PET and wherein the image captured by the detector includes a color pattern that represents a voltage at which the polymer chains of PET are subjected. 9. Una línea (100) para fabricar contenedores de material termoplástico, que comprende9. A line (100) for manufacturing containers of thermoplastic material, comprising - una máquina de moldeo (101) configurada para fabricar parisones (2);- a molding machine (101) configured to manufacture parisons (2); - una máquina de moldeo por soplado (103) configurada para recibir los parisones (2) y soplarlos en moldes para fabricar los contenedores;- a blow molding machine (103) configured to receive the parisons (2) and blow them into molds to manufacture the containers; - un dispositivo (1) para la inspección óptica de parisones (2) de acuerdo con cualquiera de las reivindicaciones 1 a 7,- a device (1) for optical inspection of parisons (2) according to any of claims 1 to 7, en las que se verifica cualquiera de las siguientes condiciones:in which any of the following conditions is verified: i) el dispositivo de inspección óptica (1) está ubicado operativamente aguas abajo de la máquina de moldeo (101); ii) el dispositivo de inspección óptica (1) está ubicado operativamente aguas arriba de la máquina de moldeo por soplado (103).i) the optical inspection device (1) is operatively located downstream of the molding machine (101); ii) the optical inspection device (1) is operatively located upstream of the blow molding machine (103). 10. Un método para la inspección óptica de parisones, que comprende las siguientes etapas:10. A method for optical inspection of parisons, comprising the following steps: - emitir un haz de luz dirigido hacia un parisón (2) ubicado en un puesto de inspección (10), por medio de un iluminador (3) que incluye una fuente de luz (31);- emit a beam of light directed towards a parison (2) located in an inspection post (10), by means of an illuminator (3) that includes a light source (31); - capturar, con un detector (4) que incluye una cámara (41), una imagen (20) del parisón (2) ubicado en el puesto de inspección (10), en el que el parisón (2), en el puesto de inspección (10), está interpuesto operativamente entre el iluminador (3) y el detector (4);- capture, with a detector (4) that includes a camera (41), an image (20) of the parison (2) located at the inspection post (10), in which the parison (2), at the inspection post inspection (10), is operatively interposed between the illuminator (3) and the detector (4); - generar un haz de luz polarizada interceptando el haz de luz emitido por el iluminador (3) sobre un filtro polarizador de emisión (32) interpuesto entre la fuente de luz (31) y el parisón (2);- generate a beam of polarized light by intercepting the beam of light emitted by the illuminator (3) on a polarizing emission filter (32) interposed between the light source (31) and the parison (2); - recibir el haz de luz polarizada en un filtro polarizador receptor (42), interpuesto entre el parisón (2) y la cámara (41), en el que, en la posición de inspección (10), el parisón (2) está interpuesto operativamente entre los filtro polarizador de emisión (32) y el filtro polarizador receptor (41);- receiving the polarized light beam in a receiving polarizing filter (42), interposed between the parison (2) and the camera (41), in which, in the inspection position (10), the parison (2) is interposed operatively between the emission polarizing filter (32) and the receiving polarizing filter (41); - procesamiento de la imagen (20), en el que la etapa de procesamiento incluye las siguientes subetapas:- image processing (20), in which the processing step includes the following substeps: - (61) procesamiento de la imagen (20) capturada por el detector (4) basándose en los conjuntos de datos de referencia (51, 52), para derivar de la imagen (20) valores de una pluralidad de características de imagen (21); - (62) generación de una imagen (22) reconstruida a partir de los valores de la pluralidad de características de imagen (21) y basada en los conjuntos de datos de referencia (51, 52);- (61) processing the image (20) captured by the detector (4) based on the reference data sets (51, 52), to derive from the image (20) values of a plurality of image characteristics (21 ); - (62) generating an image (22) reconstructed from the values of the plurality of image features (21) and based on the reference data sets (51, 52); - (63) derivación de una indicación de diagnóstico (23) relativa a un defecto del parisón (2) en función de comparar la imagen (20) capturada por el detector (4) con la imagen reconstruida (22);- (63) derivation of a diagnostic indication (23) relating to a parison defect (2) based on comparing the image (20) captured by the detector (4) with the reconstructed image (22); - entrenar la unidad de procesamiento a través de un sistema de autoaprendizaje, de modo que la indicación de diagnóstico distinga entre una tipología de objetos con defectos y una tipología de objetos sin defectos, siendo entrenada la unidad de procesamiento, por el sistema de autoaprendizaje, a través de muestras de objetos de la tipología libre de defectos.- train the processing unit through a self-learning system, so that the diagnostic indication distinguishes between a typology of objects with defects and a typology of objects without defects, the processing unit being trained by the self-learning system, through samples of objects of the defect-free typology. 11. El método de acuerdo con la reivindicación 10, en el que la etapa de autoaprendizaje comprende las siguientes subetapas:11. The method according to claim 10, wherein the self-learning step comprises the following substeps: - captura de una pluralidad de imágenes (20) para una pluralidad correspondiente de parisones (2);- capturing a plurality of images (20) for a corresponding plurality of parisons (2); - procesamiento de cada imagen (20) de la pluralidad de imágenes (20) basándose en los conjuntos de datos de referencia (51, 52), para derivar de cada imagen (20) de la pluralidad de imágenes (20) valores correspondientes de una pluralidad de características de la imagen (21) en función de un criterio predeterminado;- processing each image (20) of the plurality of images (20) based on the reference data sets (51, 52), to derive from each image (20) of the plurality of images (20) corresponding values of a plurality of image characteristics (21) based on a predetermined criterion; - generación para cada imagen (20) de la pluralidad de imágenes (20) una imagen reconstruida correspondiente (22) usando los valores correspondientes de la pluralidad de características de imagen (21) y basándose en los conjuntos de datos de referencia (51, 52);- generating for each image (20) of the plurality of images (20) a corresponding reconstructed image (22) using the corresponding values of the plurality of image features (21) and based on the reference data sets (51, 52 ); - comparación de cada imagen (20) de la pluralidad de imágenes (20) con la imagen reconstruida correspondiente (22) y derivar un parámetro de similitud correspondiente (24) que representa una similitud entre la imagen (20) capturada por el detector (4) y la imagen reconstruida correspondiente (22);- comparing each image (20) of the plurality of images (20) with the corresponding reconstructed image (22) and deriving a corresponding similarity parameter (24) that represents a similarity between the image (20) captured by the detector (4 ) and the corresponding reconstructed image (22); - actualización de los conjuntos de datos de referencia (51, 52) y la pluralidad de características de imagen (21) en función del parámetro de similitud (24) y de un valor umbral predeterminado (72).- updating the reference data sets (51, 52) and the plurality of image features (21) based on the similarity parameter (24) and a predetermined threshold value (72). 12. El método de acuerdo con la reivindicación 11, en el que las imágenes (20) de la pluralidad de imágenes (20) capturadas por la cámara (41) durante la etapa de autoaprendizaje son representativas de una pluralidad correspondiente de parisones (2) libres de defectos.12. The method according to claim 11, wherein the images (20) of the plurality of images (20) captured by the camera (41) during the self-learning step are representative of a corresponding plurality of parisons (2) free of defects. 13. El método de acuerdo con la reivindicación 11 o 12, que comprende una etapa de alimentar los parisones (2) de la pluralidad de parisones (2) a la posición de inspección (10) uno a la vez, y de acuerdo con una orientación predeterminada con respecto al filtro polarizador de emisión (2) y relativo al filtro polarizador receptor (42).13. The method according to claim 11 or 12, comprising a step of feeding the parisons (2) of the plurality of parisons (2) to the inspection position (10) one at a time, and according to a predetermined orientation with respect to the emission polarizing filter (2) and relative to the receiving polarizing filter (42). 14. El método de acuerdo con cualquiera de las reivindicaciones anteriores de 10 a 13, en el que el filtro polarizador de emisión (32) es un filtro polarizador lineal, configurado para polarizar la luz en una primera dirección de polarización.14. The method according to any of the preceding claims 10 to 13, wherein the emission polarizing filter (32) is a linear polarizing filter, configured to polarize light in a first polarization direction.
ES19813404T 2018-12-14 2019-12-12 Device for optical inspection of parisons Active ES2969140T3 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IT102018000011107A IT201800011107A1 (en) 2018-12-14 2018-12-14 DEVICE FOR OPTICAL INSPECTION OF PREFORMS
PCT/IB2019/060699 WO2020121239A2 (en) 2018-12-14 2019-12-12 Device for optical inspection of parisons

Publications (1)

Publication Number Publication Date
ES2969140T3 true ES2969140T3 (en) 2024-05-16

Family

ID=65767253

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19813404T Active ES2969140T3 (en) 2018-12-14 2019-12-12 Device for optical inspection of parisons

Country Status (10)

Country Link
US (1) US20220048237A1 (en)
EP (2) EP4269067A3 (en)
JP (1) JP2022512434A (en)
KR (1) KR102524470B1 (en)
CN (1) CN113631350B (en)
CA (1) CA3123376A1 (en)
ES (1) ES2969140T3 (en)
IT (1) IT201800011107A1 (en)
WO (1) WO2020121239A2 (en)
ZA (1) ZA202104151B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022114331A (en) * 2021-01-26 2022-08-05 日東電工株式会社 Inspection system, inspection method and inspection program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0972861A (en) * 1995-09-01 1997-03-18 Ishizuka Glass Co Ltd Method and apparatus for detecting mounting abnormality of transparent film
US5926268A (en) * 1996-06-04 1999-07-20 Inex, Inc. System and method for stress detection in a molded container
JP2000146851A (en) * 1998-11-16 2000-05-26 Mitsubishi Plastics Ind Ltd Device and method for inspecting translucent article
US7643137B2 (en) * 2003-03-26 2010-01-05 Nikon Corporation Defect inspection apparatus, defect inspection method and method of inspecting hole pattern
WO2005019813A1 (en) * 2003-08-18 2005-03-03 Insight Control Systems International, Inc. Method and system for detection of barrier core material in container preforms
DE102006047150B4 (en) * 2006-10-05 2013-01-17 Krones Aktiengesellschaft Inspection device for containers
JP2009092401A (en) * 2007-10-04 2009-04-30 Toyo Seikan Kaisha Ltd Apparatus and method for inspection
GB0809037D0 (en) * 2008-05-19 2008-06-25 Renishaw Plc Video Probe
DE102009011270B4 (en) * 2009-03-05 2012-01-19 Intravis Gmbh Method and device for quality assurance of at least partially transparent hollow bodies
DE102012002174B4 (en) * 2012-02-07 2014-05-15 Schott Ag Apparatus and method for detecting defects within the volume of a transparent pane and using the apparatus
CH707559A2 (en) 2013-03-22 2014-09-30 Finatec Holding Ag Method and system for testing the color quality of preforms.
US10357915B2 (en) * 2014-06-18 2019-07-23 Discma Ag Method and machine for producing containers by injecting a liquid inside successive preforms
WO2017075403A1 (en) * 2015-10-29 2017-05-04 The Coca-Cola Company Photoelastic characterization of residual stresses and stress distributions in injection molded performs and stretch blow-molded bottles
JP2018005773A (en) * 2016-07-07 2018-01-11 株式会社リコー Abnormality determination device and abnormality determination method
WO2018208791A1 (en) * 2017-05-08 2018-11-15 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
WO2018216629A1 (en) * 2017-05-22 2018-11-29 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
IT201800011107A1 (en) 2020-06-14
JP2022512434A (en) 2022-02-03
US20220048237A1 (en) 2022-02-17
WO2020121239A2 (en) 2020-06-18
EP3894178A2 (en) 2021-10-20
CN113631350A (en) 2021-11-09
EP3894178B1 (en) 2023-09-13
KR20210113178A (en) 2021-09-15
CN113631350B (en) 2024-03-22
EP4269067A3 (en) 2024-01-24
EP4269067A2 (en) 2023-11-01
CA3123376A1 (en) 2020-06-18
WO2020121239A3 (en) 2020-07-23
KR102524470B1 (en) 2023-04-20
ZA202104151B (en) 2023-12-20

Similar Documents

Publication Publication Date Title
US11904520B2 (en) Blow molder control systems and methods
RU2601346C2 (en) Method for production of glass articles from material for them and device for implementing the said method
US20230196096A1 (en) Deep Learning Platforms for Automated Visual Inspection
ES2969140T3 (en) Device for optical inspection of parisons
EP3914903A1 (en) System for in-line inspection of seal integrity
IT201900019070A1 (en) METHOD OF PROCESSING AN IMAGE OF AN OBJECT
IT202000021742A1 (en) METHOD FOR RECOVERING POST-CLOSED INFORMATION ABOUT THE OPERATION OF AN AUTOMATIC FRUIT CLASSIFICATION AND SORTING PLANT
CN114761790A (en) Method for checking the wall thickness of a container made of an at least partially transparent material
KR102576213B1 (en) Quality control system and method using learning module
US20230194439A1 (en) Device and method for automatically checking the quality of a spool of thread for fabrics
US20220019792A1 (en) Method and device for the detection and classification of an object
WO2024018163A1 (en) Method and device for inspecting glass containers according to at least two modes with a view to classifying the containers by their glass defects
CN117136299A (en) Method and device for inspecting containers by determining the rotational position of a container closure