BR102014009460A2 - device for dimensional measurement of parts; parts analysis and inspection system; automated dimensional control method; and uses - Google Patents

device for dimensional measurement of parts; parts analysis and inspection system; automated dimensional control method; and uses Download PDF

Info

Publication number
BR102014009460A2
BR102014009460A2 BR102014009460A BR102014009460A BR102014009460A2 BR 102014009460 A2 BR102014009460 A2 BR 102014009460A2 BR 102014009460 A BR102014009460 A BR 102014009460A BR 102014009460 A BR102014009460 A BR 102014009460A BR 102014009460 A2 BR102014009460 A2 BR 102014009460A2
Authority
BR
Brazil
Prior art keywords
camera
image
parts
analysis
cameras
Prior art date
Application number
BR102014009460A
Other languages
Portuguese (pt)
Other versions
BR102014009460B1 (en
Inventor
Paulo Roberto Gardel Kurka
Romulo Gonçalves Lins
Original Assignee
Unicamp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unicamp filed Critical Unicamp
Priority to BR102014009460-1A priority Critical patent/BR102014009460B1/en
Publication of BR102014009460A2 publication Critical patent/BR102014009460A2/en
Publication of BR102014009460B1 publication Critical patent/BR102014009460B1/en

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

dispositivo para medição dimensional de peças; sistema de análise e inspeção de peças; método de controle dimensional automatizado; e usos a presente invenção trata-se de um dispositivo para medição dimensional de peças; sistema de análise e inspeção de peças; método de controle dimensional automatizado; e uso. a presente invenção tem aplicação no controle das características geométricas de peças e que demandem elevada precisão em suas medidas.device for dimensional measurement of parts; parts analysis and inspection system; automated dimensional control method; and uses the present invention is a device for dimensional measurement of parts; parts analysis and inspection system; automated dimensional control method; I just. The present invention has application in the control of the geometric characteristics of parts that demand high precision in their measurements.

Description

DISPOSITIVO PARA MEDIÇÃO DIMENSIONAL DE PEÇAS; SISTEMA DE ANÁLISE E INSPEÇÃO DE PEÇAS; MÉTODO DE CONTROLE DIMENSIONALDEVICE FOR DIMENSIONAL MEASUREMENT OF PARTS; PARTS ANALYSIS AND INSPECTION SYSTEM; DIMENSIONAL CONTROL METHOD

AUTOMATIZADO; E USOSAUTOMATED; AND USES

CAMPO DA INVENÇÃOFIELD OF INVENTION

[001] A presente invenção trata-se de um dispositivo para medição dimensional de peças; sistema de análise e inspeção de peças; método de controle dimensional automatizado; e uso.The present invention is a device for dimensional measurement of parts; parts analysis and inspection system; automated dimensional control method; I just.

[002] A presente invenção tem aplicação no controle das características geométricas de peças e que demandem elevada precisão em suas medidas.[002] The present invention has application in the control of the geometric characteristics of parts that demand high precision in their measurements.

ESTADO DA TÉCNICATECHNICAL STATE

[003] A produção de peças automotivas requer um grande esforço na obtenção de peças com dimensões, geometria e alinhamento com elevada precisão. Neste contexto, as peças automotivas cilíndricas produzidas por forja a quente, tais como eixos, parafusos, e virabrequins, são aquelas que demandam mais tempo para serem medidas e aferidas e, apresentam o maior risco à integridade fisica do trabalhador durante a execução deste serviço.[003] The production of automotive parts requires a great effort in obtaining parts with high precision dimensions, geometry and alignment. In this context, hot-forged cylindrical automotive parts, such as axles, bolts, and crankshafts, are those that require the most time to be measured and gauged and present the greatest risk to the physical integrity of the worker while performing this service.

[004JMuita pesquisa vem sendo realizada, no intuito de desenvolver sistemas computacionais capazes de auxiliar os operadores humanos em tarefas de risco que podem ser automatizadas. Neste cenário os sistemas de visão computacional, têm contribuído significativamente em diversas fases do ciclo produtivo, tais como medição de objetos, montagem, reconstrução tridimensional e muitas outras tarefas repetitivas. A inspeção visual computadorizada permite o exame automático e exaustivo dos produtos, o que não acontece na inspeção humana, que usualmente se baseia em aproximações estatísticas.Much research has been carried out to develop computer systems that can assist human operators in risky tasks that can be automated. In this scenario, computer vision systems have contributed significantly to various phases of the production cycle, such as object measurement, assembly, three-dimensional reconstruction and many other repetitive tasks. Computerized visual inspection allows automatic and exhaustive examination of products, which is not the case with human inspection, which is usually based on statistical approximations.

[005] Com a crescente globalização e concorrência a indústria tem investido na automatização dos processos e muitas ferramentas matemáticas e computacionais têm sido propostas. O processamento e a análise de imagens criam uma ciência que permite manipular, analisar e modificar imagens digitais. Assim, os sistemas de visão contemplam um conjunto de métodos que dão suporte ao desenvolvimento de produtos confiáveis ou processos eficientes, que possam ser empregados em situações práticas de um ambiente de manufatura.[005] With increasing globalization and competition industry has invested in process automation and many mathematical and computational tools have been proposed. Image processing and analysis create a science that lets you manipulate, analyze, and modify digital images. Thus, vision systems include a set of methods that support the development of reliable products or efficient processes that can be employed in practical situations in a manufacturing environment.

[006] Para o desenvolvimento dos sistemas de visão utilizados na indústria, geralmente utiliza-se os as câmeras C.CD (Charge Coupled Device) como os sensores de visão para obter-se a posição e a orientação dos objetos em uma cena.[006] For the development of vision systems used in industry, C.CD (Charge Coupled Device) cameras are commonly used as vision sensors to obtain the position and orientation of objects in a scene.

[007] Os sistemas de visão podem operar com uma ou mais câmeras, e que podem ser móveis ou fixas. Embora seja possível se ter uma ideia do mundo 3D usando uma única imagem, os procedimentos mais robustos podem ser obtidos a partir de duas imagens, que podem ser obtidas de uma mesma câmera que muda de posição.Vision systems can operate with one or more cameras, which can be mobile or fixed. Although it is possible to get an idea of the 3D world using a single image, the most robust procedures can be obtained from two images, which can be obtained from the same camera that changes position.

[008] O objetivo de um sistema de visão é criar um modelo do mundo real a partir de imagens. Devido às particularidades e ao conjunto de restrições de cada tipo de aplicação, as tecnologias são usadas para a solução de um problema especifico, adaptando o conjunto de ferramentas matemáticas para a resolução de cada tipo de problema. Não é possível ter um sistema de visão genérico, mas a aplicação de várias técnicas de modo escalonado permite dar solução aos problemas mais complexos.[008] The goal of a vision system is to create a real-world model from images. Due to the particularities and set of constraints of each type of application, technologies are used to solve a specific problem, adapting the mathematical toolset to solve each type of problem. It is not possible to have a generic vision system, but the application of various techniques in a staggered way allows to solve the most complex problems.

[009] A determinação de dados em 3D (três dimensões) a partir de imagens em 2D (duas dimensões) é uma área muito importante nos sistemas de visão e vem sendo muito estudadas. Um sistema de visão recupera informações sobre a cena a partir de suas projeções em 2D. Como as imagens são projeções em 2D do mundo real em 3D, qualquer informação sobre a cena não é obtida diretamente, ou por triangulação, entretanto, existem alguns problemas bem definidos relacionados com a obtenção da informação 3D de uma cena.[009] Determining 3D data (three dimensions) from 2D images (two dimensions) is a very important area in vision systems and has been studied extensively. A vision system retrieves information about the scene from its 2D projections. Because images are 2D projections of the real world in 3D, any information about the scene is not obtained directly, or by triangulation, however, there are some well-defined problems related to obtaining 3D information from a scene.

[010] O primeiro problema é chamado de localização de correspondência, que é a forma de estabelecer uma correlação entre duas imagens do mesmo objeto obtidas a partir de pontos de vista diferentes. Um ponto projetado na primeira imagem deve corresponder a um ponto na segunda imagem, que é a projeção do mesmo ponto na cena real. Inúmeros métodos para a determinação automática desta correspondência têm sido propostos. Como conhecido pelos versados na arte, certos procedimentos algébricos e geométricos podem correlacionar os pontos das imagens a serem estudadas.[010] The first problem is called matching location, which is how to establish a correlation between two images of the same object taken from different points of view. A point projected on the first image must match a point on the second image, which is the projection of the same point on the actual scene. Numerous methods for the automatic determination of this correspondence have been proposed. As known to those skilled in the art, certain algebraic and geometric procedures may correlate the points of the images to be studied.

[011] O segundo problema é relacionado com a reconstrução tridimensional, mais especificamente com a calibração das câmeras. A calibração das câmeras é necessária em qualquer inspeção visual onde se busca determinar a posição dos objetos ou a localização da câmera no ambiente. Normalmente, a única informação que se dispõe são as imagens dos objetos. A ideia básica da calibração é estabelecer uma relação entre os pontos das imagens e as coordenadas espaciais dadas em unidades métricas. Esta relação depende da configuração dos parâmetros óticos da câmera, bem como da estimação da posição relativa entre as câmeras. A posição relativa é dada por uma matriz de rotação e um vetor translação, que formam uma expressão matricial chamada de matriz essencial.[011] The second problem is related to three-dimensional reconstruction, more specifically camera calibration. Camera calibration is required for any visual inspection that seeks to determine the position of objects or the location of the camera in the environment. Usually the only information available is the images of the objects. The basic idea of calibration is to establish a relationship between the image points and the spatial coordinates given in metric units. This relationship depends on the setting of the camera's optical parameters as well as the estimation of the relative position between the cameras. The relative position is given by a rotation matrix and a translation vector, which form a matrix expression called the essential matrix.

[012] A determinação do aspecto do objeto em termos de volume e posição estão descritos em vários estudos que tratam da extração das informações 3D a partir das imagens. Quando se faz necessário conhecer detalhes das faces do objeto, é comum a utilização de nuvem de pontos para reconstruir determinada superfície. Como o esforço computacional é alto, foi proposta a otimização da reconstrução com o objetivo de minimizar o esforço computacional, principalmente pelas técnicas de mapas de disparidades e a triangulação de Delaunay para criação de facetas triangulares.[012] Determining the appearance of the object in terms of volume and position is described in several studies dealing with the extraction of 3D information from images. When it is necessary to know details of the faces of the object, it is common to use point cloud to reconstruct certain surface. As the computational effort is high, the reconstruction optimization was proposed with the objective of minimizing the computational effort, mainly by the disparity map techniques and the Delaunay triangulation to create triangular facets.

[013] Atualmente há dezenas de fabricantes que oferecem soluções para o controle dimensional de peças utilizando cãme ras.[013] There are currently dozens of manufacturers offering solutions for dimensional control of parts using cameras.

[014] Entretanto, os principais sistemas industriais de visão são aplicados nas áreas de inspeção de componentes eletroeletrônicos, inspeção de impressos nas indústrias farmacêuticas e alimentícia e controle dimensional na indústria automotiva, sendo as soluções oferecidas customizadas à aplicação de cada cliente.[014] However, the main industrial vision systems are applied in the areas of electro-electronic component inspection, printed inspection in the pharmaceutical and food industries and dimensional control in the automotive industry, and the solutions offered are tailored to each client's application.

[015] Na literatura de patentes, vemos que diversas tecnologias relativas a medições de superfícies já foram desenvolvidas. A patente americana US7869061 se refere a uma tecnologia para a medição da distorção de superfície utilizando uma câmera sobre a superfície a ser medida, e um espelho posicionado atrás da superfície.[015] In patent literature, we see that several technologies related to surface measurements have already been developed. US7869061 relates to a technology for measuring surface distortion using a camera on the surface to be measured, and a mirror positioned behind the surface.

[016] Desde JP2004150810 é conhecido uma forma de medição que promove a combinação entre o laser e imagem para a reconstrução de corpos tridimensionais a partir da técnica de triangulaçao e fusão sensorial, que compara as imagens obtidas com um modelo CAD do objeto analisado.[016] Since JP2004150810 is known a form of measurement that promotes the combination between laser and image for the reconstruction of three-dimensional bodies using the technique of triangulation and sensory fusion, which compares the images obtained with a CAD model of the object analyzed.

[017] O documento DE102010015353 se refere a uma tecnologia que utiliza um sensor CCD que compara as imagens obtidas com um modelo CAD do objeto analisado.[017] DE102010015353 relates to a technology using a CCD sensor that compares the images obtained with a CAD model of the object analyzed.

[018] Já o CN102538672 se refere a uma tecnologia que utiliza um sensor CMOS o que não possibilita a reconstrução do objeto e utiliza uma técnica de binarização de imagens.[018] CN102538672 refers to a technology that uses a CMOS sensor which does not allow object reconstruction and uses a technique of image binarization.

[019] Como pode ser visto, o uso de câmeras para o controle dimensional em componentes automotivos vem ganhando importância no contexto atual, pois tem grande vantagem em relação aos sistemas de medição convencionais, sendo sua principal desvantagem o desenvolvimento de software e hardware para cada aplicação especifica, não havendo um sistema desenvolvido para controle dimensional de componentes de diferentes geometrias. breve descrição da invenção [020] A presente invenção trata de um dispositivo para medição dimensional de peças; um sistema de visão computacional para a inspeção dimensional de peças na linha de produção; ao método de aferição; e, ao uso do dispositivo e do sistema para o controle das características geométricas das peças e que demandem elevada precisão em suas medidas; que por ser operado à distância, reduz os problemas de segurança ao operador.[019] As can be seen, the use of cameras for dimensional control in automotive components is gaining importance in the current context as it has great advantage over conventional metering systems, its main disadvantage being the development of software and hardware for each specific application, and there is no system developed for dimensional control of components of different geometries. BRIEF DESCRIPTION OF THE INVENTION The present invention is a device for dimensionally measuring parts; a computer vision system for dimensional inspection of parts on the production line; the measurement method; and the use of the device and the system to control the geometrical characteristics of the parts that demand high precision in their measurements; Because it is remotely operated, it reduces operator safety problems.

[021] Consequentemente, é objeto da presente invenção um dispositivo para medição dimensional de peças; que não requer o auxílio de instrumentos de medição ou máquinas de medição; compreende um conjunto de câmeras para a detecção de imagens de peças para posterior análise computacional das imagens; que, portanto, reduz os problemas de segurança para o operador que não sofrerá riscos por estar frente a uma peça com alta temperatura.Accordingly, an object device for dimensional measurement of parts is object of the present invention; does not require the aid of measuring instruments or measuring machines; comprises a set of cameras for detecting part images for further computational analysis of the images; This therefore reduces safety problems for the operator who will not be at risk from facing a part with a high temperature.

[022] O referido dispositivo (1) compreende uma base (2) para a sustentação da peça; pelos meios de aquisição de imagem (3) para a inspeção dimensional da peça na linha de produção, sendo que: —a base (2) compreende uma mesa (2.1); um berço (2.2) e um amortecedor (2.3); em que a mesa (2.1) serve como apoio para o sistema de aquisição de imagens (3) e para a peça a ser inspecionada; o berço (2.2) serve para o assentamento da peça e para a manter imobilizada; e o amortecedor (2.3) serve para mitigar a vibração. — os meios de captação de imagem (3) compreendem um conjunto de 4 a 8 câmeras (3.1) que apresentam uma translação e rotação entre si; e, um conjunto de 4 a 8 luzes (3.2); que viabilizam que a peça seja integralmente visualizada tendo imagens adjacentes com pontos de sobreposição entre si. — os meios de captação de imagem (3) compreendem um conjunto de 6 câmeras (3.1); e, o conjunto de 6 de luzes (3.2) .Said device (1) comprises a base (2) for holding the part; by the image acquisition means (3) for dimensional inspection of the part on the production line, wherein: —the base (2) comprises a table (2.1); a cradle (2.2) and a shock absorber (2.3); wherein the table (2.1) serves as support for the imaging system (3) and for the part to be inspected; the cradle (2.2) is used for laying the piece and keeping it immobilized; and the damper (2.3) serves to mitigate vibration. - the image capture means (3) comprises a set of 4 to 8 cameras (3.1) which have a translation and rotation with each other; and a set of 4 to 8 lights (3.2); that enable the piece to be fully visualized by having adjacent images with overlapping points between them. - the image capture means (3) comprise a set of 6 cameras (3.1); and the set of 6 lights (3.2).

[023] Um segundo objeto da presente invenção é um sistema de análise e inspeção de peças, que compreende um dispositivo para medição dimensional de peças; meios de integração e meios de segurança.A second object of the present invention is a part analysis and inspection system comprising a device for dimensional measurement of parts; means of integration and means of security.

[024] O referido sistema (4) compreende um dispositivo (1) para medição dimensional de peças; meios de integração (MSI); e meios de segurança (IS) que integrados em rede com o sistema de controle de produção da fábrica viabilizam a coleta e o processamento dos dados para a análise e inspeção dimensional, geométrica e o alinhamento de peças, sendo que: — o dispositivo (1) para medição dimensional de peças ser tal como o descrito anteriormente. — os meios de integração (MSI) promoverem a comunicação entre um robô da linha de produção (1R1), o dispositivo (1), os meios de segurança (IS), e uma fonte de alimentação (Al) sendo compreendido por uma placa de aquisição de dados (5.1); e um computador (5.2) ligado a uma base de dados (5.2). — a placa de aquisição de dados (5.1) ser uma placa NI USB; e uma placa Ethenet ligar a placa (5.1) ao computador (5.2). — os meios de integração (MSI) com o dispositivo (1) ocorrer por intermédio do quadro de comando (Cl) que se conecta às interfaces 1/0 que ligam e desligam os meios de captação de imagem (3) compreendidos pelo conjunto de 4 a 8 câmeras (3.1) e pelo conjunto de 4 a 8 luzes (3.2) .Said system (4) comprises a device (1) for dimensional measurement of parts; means of integration (MSI); and safety means (IS) that integrated with the factory production control system enable data collection and processing for dimensional, geometric analysis and inspection and alignment of parts, as follows: - the device (1) ) for dimensional measurement of parts be as described above. - the integration means (MSI) promotes communication between a production line robot (1R1), the device (1), the security means (IS), and a power supply (Al) being comprised of a circuit board. data acquisition (5.1); and a computer (5.2) connected to a database (5.2). - the data acquisition board (5.1) is an NI USB card; and an Ethenet card connecting the card (5.1) to the computer (5.2). - the means for integrating (MSI) with the device (1) takes place via the control board (Cl) which connects to interfaces 1/0 which switch on and off the imaging means (3) comprised of the set of 4. 8 cameras (3.1) and the set of 4 to 8 lights (3.2).

[025] Um terceiro objeto da invenção é um método de controle dimensional automatizado através de imagem computacional e geométrica de peças na linha de produção; que é operado à distância, reduzindo os problemas de segurança para o operador que não sofrerá riscos por estar frente a uma peça com alta temperatura.[025] A third object of the invention is a method of automated dimensional control through computational and geometric imaging of parts on the production line; which is remotely operated, reducing safety problems for the operator who will not be at risk from facing a high temperature part.

[026] O referido método compreende as seguintes etapas principais: (a) Inicialização; (b) Aquisição e processamento da imagem; (c) Construção de uma imagem 3D da peça; (d) Análise da peça; (e) Remoção da peça analisada; e, (f) Repouso.[026] This method comprises the following main steps: (a) initialization; (b) image acquisition and processing; (c) Construction of a 3D image of the part; (d) analysis of the part; (e) removal of the analyzed part; and, (f) Rest.

[027]Sendo que: — a etapa de inicialização compreende a verificação dos itens do sistema de segurança que são monitorados pelo relé de segurança, além de estabelecer todas as variáveis necessárias para a inicialização do sistema. — um robô integrante de uma linha de montagem, pega a peça automotiva e a coloca sobre o berço (2.2) da mesa (2.1); e então retorna para uma posição de repouso onde ficará aguardando até a conclusão do processo; em seguida, o sistema zera as variáveis necessárias para a aquisição, processamento e análise, e envia o sinal para os meios de captação de imagem (3) iniciar a etapa (b) . — na etapa (b) os meios de captação de imagem (3) serem calibrados e, em seguida capturarem entre 12 a 20 imagens por câmera do conjunto de 4 a 8 câmeras (3.1) de modo que a peça seja integralmente visualizada e que imagens adjacentes tenham pontos de sobreposição entre si. — o conjunto de 4 a 8 de luzes (3.2) emitirem um foco de luz corrige os problemas na iluminação incidente sobre a peça viabilizando uma captura de imagens adequada; e as câmeras adquirirem as imagens e as enviarem ao computador. — o processamento ocorrer após o carregamento das imagens no computador para a obtenção de pontos homólogos dos pares de imagens e, ocorrer pela execução de um algoritmo de calibração e softwares de processamento. — na etapa (c) ser construída uma imagem 3D a peça com o uso de um software pertencente ao estado da técnica. — na etapa de análise, a imagem 3D ser inspecionada e os dados relativos à precisão das dimensões da peça como um todo, bem como, de cada um de suas secções serem obtidos; os dados serem comparados com os dados de uma peça padrão armazenados no sistema. — na etapa (e) o robô retirar do berço (2.2) a peça analisada e o carrega para ,um transportador aéreo de acordo com o resultado da análise.[027] Where: - The initialization step comprises the verification of the safety system items that are monitored by the safety relay, as well as setting all the necessary variables for the system startup. - an assembly line robot picks up the automotive part and places it on the cradle (2.2) of the table (2.1); and then returns to a rest position where it will wait until the process is complete; The system then clears the variables required for acquisition, processing and analysis, and sends the signal to the imaging means (3) to initiate step (b). - in step (b) the image capture means (3) are calibrated and then capture between 12 to 20 images per camera from the set of 4 to 8 cameras (3.1) so that the part is fully viewed and which images adjacent areas have overlapping points with each other. - the set of 4 to 8 lights (3.2) emitting a spotlight corrects for problems with incident lighting on the part by enabling proper image capture; and the cameras acquire the images and send them to the computer. - the processing occurs after the images are loaded on the computer to obtain homologous points of the image pairs and, by the execution of a calibration algorithm and processing software. - in step (c) a 3D piece image is constructed using state of the art software. - at the analysis stage, the 3D image be inspected and the data relating to the accuracy of the dimensions of the part as a whole as well as from each of its sections are obtained; the data is compared to the standard part data stored in the system. - in step (e) the robot removes from the cradle (2.2) the analyzed part and carries it to an air carrier according to the result of the analysis.

[028] O último objeto da invenção é o uso de um sistema de análise de imagens para a medição dimensional de peças no controle de qualidade de uma linha de produção.[028] The last object of the invention is the use of an image analysis system for dimensionally measuring parts in the quality control of a production line.

BREVE DESCRIÇÃO DOS DESENHOSBRIEF DESCRIPTION OF DRAWINGS

[029] Para se obter uma completa visualização dos objetivos da presente invenção, é necessária a leitura deste documento e a análise dos desenhos que o acompanham e aos quais se faz referências conforme segue abaixo.[029] In order to obtain a full view of the objects of the present invention, it is necessary to read this document and analyze the accompanying drawings to which reference is made as follows.

[030] Figura 1 - é a visão em perspectiva do dispositivo para medição dimensional com uma peça automotiva representada.[030] Figure 1 - is the perspective view of the device for dimensional measurement with an automotive part represented.

[031] FIGURA 2 - é o modelo de layout do sistema de medição.[031] FIGURE 2 - is the measurement system layout model.

[032] FIGURA 3 - representação do sistema de coordenadas de uma câmera.[032] FIGURE 3 - Representation of a camera's coordinate system.

[033] FIGURA 4 - Imagem de uma peça a partir do plano de imagem da câmera 1.[033] FIGURE 4 - Image of a part from camera image plane 1.

[034] FIGURA 5 - é o exemplo de um vetor de localização de pontos homólogos.[034] FIGURE 5 - is an example of a homologous point location vector.

[035] FIGURA 6 - é um exemplo do vetor de localização f(x, y) dos pontos homólogos em pixels.[035] FIGURE 6 - is an example of the location vector f (x, y) of homologous points in pixels.

[036] FIGURA 7 - ilustra a determinação dos cilindros de alinhamento.[036] FIGURE 7 - illustrates the determination of alignment cylinders.

[037] FIGURA 8 - gráfico com os parâmetros da elipse.[037] FIGURE 8 - Graph with ellipse parameters.

[038] FIGURA 9 - histograma de frequência.[038] FIGURE 9 - Frequency histogram.

[039] Figura 10 - arquitetura do sistema de análise e inspeção.[039] Figure 10 - Analysis and inspection system architecture.

DESCRIÇÃO DETALHADA DA INVENÇÃODETAILED DESCRIPTION OF THE INVENTION

[040] A presente invenção trata um dispositivo (1) para medição dimensional de peças que compreende uma base (2) para a sustentação da peça; pelos meios de aquisição de imagem (3) para a inspeção dimensional da peça na linha de produção.[040] The present invention deals with a device (1) for dimensional measurement of parts comprising a base (2) for supporting the part; image acquisition means (3) for dimensional inspection of the part on the production line.

[041] Para fins desta invenção, peças automotivas forjadas a quente são peças cilíndricas, por exemplo, eixo piloto, e virabrequim. Preferencialmente, a peça automotiva é um virabrequim.[041] For purposes of this invention, hot forged automotive parts are cylindrical parts, for example, pilot shaft, and crankshaft. Preferably, the automotive part is a crankshaft.

[042] Este objeto da invenção é melhor ilustrado pela Figura 1, onde pode ser visto que a base (2) compreende uma mesa (2.1); um berço (2.2) e um amortecedor (2.3). A mesa (2.1) serve como apoio para o sistema de aquisição de imagens (3) e para a peça a ser inspecionada; o berço (2.2) serve para o assentamento da peça e a mantém imobilizada, permitindo assim que a análise dimensional seja realizada com maior precisão.[042] This object of the invention is best illustrated by Figure 1, where it can be seen that the base (2) comprises a table (2.1); a cradle (2.2) and a shock absorber (2.3). The table (2.1) serves as support for the image acquisition system (3) and for the part to be inspected; The cradle (2.2) is used for laying the part and keeping it immobilized, thus allowing the dimensional analysis to be performed with greater precision.

[043] O amortecedor (2.3) serve para mitigar a vibração; compreende um conjunto de amortecedores encaixados em cada um dos apoios (2.1.1) da mesa (2.1); os amortecedores são pertencentes ao estado da técnica, e podem ser amortecedores hidráulicos, de molas, pneumáticos ou uma combinação destes.[043] The damper (2.3) serves to mitigate vibration; comprises a damper assembly fitted to each of the table supports (2.1.1) (2.1); shock absorbers are state of the art, and may be hydraulic, spring, pneumatic or a combination thereof.

[044] A mesa (2.1) e o berço (2.2) são feitos de um metal pertencente ao grupo que compreende aço, aço inoxidável, aço inoxidável para trabalho a quente, aço carbono, aço para trabalho a quente, alumínio estrutural e ferro fundido. Como o berço (2.2) recebe diretamente sobre ele a peça fundida ainda quente, este é produzido com um material mais resistente ao calor, tal como, preferencialmente, o aço para trabalho a quente e aço inoxidável para trabalho a quente. Já a mesa (2.1) deve ser leve e resistente sendo por isso produzida preferencialmente em alumínio estrutural, ferro fundido, ou aço carbono.[044] Table (2.1) and cradle (2.2) are made of a metal belonging to the group comprising steel, stainless steel, hot work stainless steel, carbon steel, hot work steel, structural aluminum and cast iron . As the cradle (2.2) directly receives the still hot cast on it, it is made of a more heat resistant material, such as preferably hot work steel and hot work stainless steel. Already the table (2.1) must be light and resistant and therefore preferably produced in structural aluminum, cast iron, or carbon steel.

[045] Os meios de captação de imagem (3) compreendem um conjunto de 4 a 8 câmeras (3.1) que apresentam uma translação e rotação entre si; e, um conjunto de 4 a 8 luzes (3.2) ; que viabilizam que a peça seja integralmente visualizada e tenha imagens adjacentes com pontos de sobreposição entre si, Na modalidade preferencial da invenção, os meios de captação de imagem (3) compreendem um conjunto de 6 câmeras (3.1) que apresentam uma translação e rotação entre si; e, o conjunto de 6 de luzes (3.2) auxilia a captura da imagem corrigindo os problemas de má iluminação incidente sobre a peça.The imaging means (3) comprises a set of 4 to 8 cameras (3.1) which have a translation and rotation with each other; and a set of 4 to 8 lights (3.2); which enable the piece to be fully visualized and to have adjacent images with overlapping points in one another. In the preferred embodiment of the invention, the imaging means (3) comprise a set of 6 cameras (3.1) which have a translation and rotation between each other. itself; and the set of 6 lights (3.2) assists in image capture by correcting the poor lighting problems of the part.

[046] Na presente invenção, as câmeras do conjunto de câmeras são pertencentes ao grupo que compreende: câmera digital, câmera inteligente, webcam e câmera analógica. Preferencialmente, as câmeras são pertencentes ao grupo que compreende: câmera digital e câmera inteligente.[046] In the present invention, the cameras in the camera set belong to the group comprising: digital camera, smart camera, webcam and analog camera. Preferably, the cameras belong to the group comprising: digital camera and smart camera.

[047] O dispositivo (1) para medição dimensional de peças viabiliza a para a análise e inspeção dimensional, geométrica e o alinhamento de peças na linha de produção sem colocar em risco a saúde do operador.[047] The dimensional measuring device (1) enables dimensional analysis, inspection and alignment of parts on the production line without endangering the health of the operator.

[048] A invenção também trata de um sistema (4) de análise e inspeção de peças, que compreende um dispositivo (1) para medição dimensional de peças; meios de integração (MSI); e meios de segurança (IS) que integrados em rede com o sistema de controle de produção da fábrica viabilizam a coleta e o processamento dos dados para a análise e inspeção dimensional, geométrica e o alinhamento de peças.[048] The invention also relates to a part analysis and inspection system (4) comprising a device (1) for dimensional measurement of parts; means of integration (MSI); and safety features (IS) that integrated with the plant's production control system enable data collection and processing for dimensional, geometric analysis and inspection and part alignment.

[049] No sistema (4) o dispositivo (1) para medição dimensional de peças que compreende uma base (2) para a sustentação da peça; pelos meios de aquisição de imagem (3) para a inspeção dimensional da peça na linha de produção.[049] In system (4) the device (1) for dimensional measurement of parts comprising a base (2) for supporting the part; image acquisition means (3) for dimensional inspection of the part on the production line.

[050] A base (2) compreende uma mesa (2.1); um berço (2.2) e um amortecedor (2.3). A mesa (2.1) serve como apoio para o sistema de aquisição de imagens (3) e para a peça a ser inspecionada; o berço (2.2) serve para o assentamento da peça e a mantem imobilizada, permitindo assim que a análise dimensional seja realizada com maior precisão.The base (2) comprises a table (2.1); a cradle (2.2) and a shock absorber (2.3). The table (2.1) serves as support for the image acquisition system (3) and for the part to be inspected; The cradle (2.2) is used for laying the piece and keeping it immobilized, thus allowing the dimensional analysis to be performed with greater precision.

[051] O amortecedor (2.3) serve para mitigar a vibração; que compreende um conjunto de amortecedores encaixados em cada um dos apoios da mesa (2.1); os amortecedores são pertencentes ao estado da técnica.[051] The damper (2.3) serves to mitigate vibration; comprising an assembly of dampers fitted to each of the table supports (2.1); the dampers are state of the art.

[052] A mesa (2.1) e o berço (2.2) são feitos de um metal pertencente ao grupo que compreende aço, aço inoxidável, aço inoxidável para trabalho a quente, aço carbono, aço para trabalho a quente, aluminio estrutural e ferro fundido. Como o berço (2.2) recebe diretamente sobre ele a peça fundida ainda quente, este é produzido com um material mais resistente ao calor, tal como, preferencialmente, o aço para trabalho a quente e aço inoxidável para trabalho a quente. Já a mesa (2.1) deve ser leve e resistente sendo por isso produzida preferencialmente em aluminio estrutural, ferro fundido, ou aço carbono.[052] Table (2.1) and Cradle (2.2) are made of a metal belonging to the group comprising steel, stainless steel, hot work stainless steel, carbon steel, hot work steel, structural aluminum and cast iron . As the cradle (2.2) directly receives the still hot cast on it, it is made of a more heat resistant material, such as preferably hot work steel and hot work stainless steel. Already the table (2.1) must be light and resistant and therefore preferably produced in structural aluminum, cast iron, or carbon steel.

[053] Os meios de captação de imagem (3) compreendem um conjunto de 4 a 8 câmeras (3.1) que apresentam uma translação e rotação entre si; e, um conjunto de 4 a 8 luzes (3.2); que viabilizam que peça seja integralmente visualizada e que imagens adjacentes tenham pontos de sobreposição entre si. Na modalidade preferencial da invenção, os meios de captação de imagem (3) compreendem um conjunto de 6 câmeras (3.1) que apresentam uma translação e rotação entre si; e, o conjunto de 6 de luzes (3.2) auxilia a captura da imagem corrigindo os problemas de má iluminação incidente sobre a peça.[053] Imaging means (3) comprise a set of 4 to 8 cameras (3.1) which have translation and rotation with one another; and a set of 4 to 8 lights (3.2); that enable the piece to be fully viewed and adjacent images to have overlapping points with each other. In the preferred embodiment of the invention, the imaging means (3) comprise a set of 6 cameras (3.1) which have translation and rotation with one another; and the set of 6 lights (3.2) assists in image capture by correcting the poor lighting problems of the part.

[054] Na presente invenção, as câmeras do conjunto de câmeras são pertencentes ao grupo que compreende: câmera digital, câmera inteligente, webcam e câmera analógica. Preferencialmente, as câmeras são pertencentes ao grupo que compreende: câmera digital e câmera inteligente.[054] In the present invention, the cameras in the camera set belong to the group comprising: digital camera, smart camera, webcam and analog camera. Preferably, the cameras belong to the group comprising: digital camera and smart camera.

[055] O dispositivo (1) para medição dimensional de peças viabiliza a para a análise e inspeção dimensional, geométrica e o alinhamento de peças na linha de produção sem colocar em risco a saúde do operador.[055] The device (1) for dimensional part measurement enables dimensional, geometric analysis and inspection of parts on the production line without endangering operator health.

[056] Os meios de integração (MSI) promovem a comunicação entre um robô da linha de produção (1R1), o dispositivo (1), os meios de segurança (IS), e uma fonte de alimentação (Al) sendo compreendido por uma placa de aquisição de dados (5.1); e um computador (5.2) ligado a uma base de dados (5.2).[056] The integration means (MSI) promotes communication between a production line robot (1R1), the device (1), the security means (IS), and a power supply (Al) comprising a data acquisition board (5.1); and a computer (5.2) connected to a database (5.2).

[057] A placa de aquisição de dados (5.1) é uma placa pertencente ao estado da técnica tal como uma placa NI USB, dentre outras. Uma conexão de rede tal como uma placa Ethenet conhecida pelos versados na arte liga a placa (5.1) ao computador (5.2), que pode ser qualquer computador de uso pessoal pertencente ao estado da técnica, que tenha um sistema operacional aberto ou fechado, que viabilize a execução dos softwares inerentes a realização da invenção, como por exemplo, o Blender, o Labview, e o Matlab.[057] The data acquisition board (5.1) is a state of the art board such as an NI USB board, among others. A network connection such as an Ethenet card known to those skilled in the art connects the card (5.1) to the computer (5.2), which can be any prior art personal computer that has an open or closed operating system that can enable the execution of the software inherent to the realization of the invention, such as Blender, Labview, and Matlab.

[058] A conexão dos meios de integração (MSI) com o dispositivo (1) ocorre por intermédio do quadro de comando (Cl) que se conecta às interfaces 1/0 que ligam e desligam os meios de captação de imagem (3). Os meios de captação de imagem (3) são compreendidos pelo conjunto de 4 a 8 câmeras (3.1) e pelo conjunto de 4 a 8 luzes (3.2).[058] The integration means (MSI) are connected to the device (1) by means of the control board (Cl) which connects to the 1/0 interfaces that turn the imaging means on and off (3). The imaging means (3) are comprised of the set of 4 to 8 cameras (3.1) and the set of 4 to 8 lights (3.2).

[059] A invenção trata ainda de um método de controle dimensional automatizado através de imagem computacional e geométrica de peças da presente invenção que compreende as etapas de: (a)Inicialização; (bjAquisição e processamento da imagem; (c) Construção de uma imagem 3D da peça; (d) Análise da peça; (e) Remoção da peça analisada; e, (f) Repouso.[059] The invention further relates to a method of automated dimensional control through computational and geometric imaging of parts of the present invention comprising the steps of: (a) initialization; (Image acquisition and processing; (c) Construction of a 3D image of the part; (d) Analysis of the part; (e) Removal of the analyzed part; and (f) Rest.

[060] A etapa de inicialização compreende verificação os itens do sistema de segurança que são monitorados pelo relé de segurança, além de estabelecer todas as variáveis necessárias para a inicialização do sistema.[060] The startup step comprises checking the safety system items that are monitored by the safety relay, and setting all the variables required for system startup.

[061] Nesta etapa; um robô integrante de uma linha de montagem, pega a peça automotiva e a coloca sobre o berço (2.2) da mesa (2.1); e então retorna para uma posição de repouso onde ficará aguardando até a conclusão do processo. Em seguida, o sistema zera as variáveis necessárias para a aquisição, processamento e análise, e envia o sinal para os meios de captação de imagem (3) iniciar a etapa (b).[061] In this step; an assembly line robot picks up the automotive part and places it on the cradle (2.2) of the table (2.1); and then returns to a rest position where it will wait until the process is complete. The system then clears the variables required for acquisition, processing and analysis, and sends the signal to the imaging means (3) to initiate step (b).

[062] Na etapa (b) os meios de captação de imagem (3) são calibrados e, em seguida capturam entre 12 a 20 imagens por câmera do conjunto de 4 a 8 câmeras (3.1) de modo que a peça seja integralmente visualizada e que imagens adjacentes tenham pontos de sobreposição entre si. O conjunto de 4 a 8 de luzes (3.2) emite um foco de luz corrige os problemas na iluminação incidente sobre a peça viabilizando uma captura de imagens adequada. As câmeras fazem a aquisição das imagens e as enviam ao computador.[062] In step (b) the imaging means (3) are calibrated and then capture between 12 to 20 images per camera from the set of 4 to 8 cameras (3.1) so that the part is fully viewed and adjacent images have overlapping points with each other. The 4-8 set of lights (3.2) emitting a spotlight corrects for problems with incident lighting on the part by enabling proper image capture. The cameras acquire the images and send them to the computer.

[063] Preferencialmente, os meios de captação de imagem (3) capturam 15 imagens por câmera do conjunto de 6 câmeras (3.1), e o conjunto de 6 de luzes (3.2) emite um foco de luz continuo.Preferably, the imaging means (3) captures 15 images per camera from the 6-camera array (3.1), and the 6-array of lights (3.2) emits a continuous light focus.

[064] A figura 2 apresenta os dados relativos à distância focal a posição e orientação de cada câmera do conjunto de 6 câmeras da modalidade preferencial da invenção. Onde: PW[XW,YW,ZW] = zero do sistema de coordenadas global; (.Οχχ,Ογΐ') = zero do sistema de coordenadas da câmera 1; ÇOx2 Oyz) = zero do sistema de coordenadas da câmera 2; (0x3,0yz) = zero do sistema de coordenadas da câmera 3; (O 4 Oy4) = zero do sistema de coordenadas da câmera 4; (0-5 Oys) = zero do sistema de coordenadas da câmera 5; (O 6 Oyb) = zero do sistema de coordenadas da câmera 6;[064] Figure 2 shows the focal length data, position and orientation of each camera of the 6 camera set of the preferred embodiment of the invention. Where: PW [XW, YW, ZW] = global coordinate system zero; (.Οχχ, Ογΐ ') = zero of camera 1 coordinate system; Χx2 Oyz) = zero of camera 2 coordinate system; (0x3.0yz) = camera coordinate system zero; (O 4 Oy4) = camera coordinate system zero; (0-5 Oys) = camera coordinate system zero 0; (O 6 Oyb) = camera coordinate system zero;

[065] A distância focal de cada câmera apresentada na Figura 2, é apresentada como: pc1 = distância focal da câmera 1; FC2 = distância focal da câmera 2; FC3 = distância focal da câmera 3; FC4 = distância focal da câmera 4; FC5 = distância focal da câmera 5; FC6 = distância focal da câmera 6 [066] A posição e a orientação de cada câmera é dado conforme a seguir: 1RT2 — matriz de rotação e translação entre as câmeras 1 e 2; 2RT3 - matriz de rotação e translação entre as câmeras 2 e 3; 3RT4 = matriz de rotação e translação entre as câmeras 3 e 4; 4RT5 — matriz de rotação e translação entre as câmeras 4 e 5; 5RT6 = matriz de rotação e translação entre as câmeras 5 e 6;[065] The focal length of each camera shown in Figure 2 is presented as: pc1 = focal length of camera 1; FC2 = focal length of camera 2; FC3 = camera focal length 3; FC4 = camera 4 focal length; FC5 = camera focal length 5; FC6 = camera focal length 6 [066] The position and orientation of each camera is given as follows: 1RT2 - rotation and translation matrix between cameras 1 and 2; 2RT3 - rotation and translation matrix between cameras 2 and 3; 3RT4 = rotation and translation matrix between cameras 3 and 4; 4RT5 - rotation and translation matrix between cameras 4 and 5; 5RT6 = rotation and translation matrix between cameras 5 and 6;

[067] De posse destes dados, o processamento ocorre após o carregamento das imagens no computador para a obtenção de pontos homólogos dos pares de imagens e, ocorre pela execução de um algoritmo de calibraçâo e softwares de processamento, pertencentes ao estado da técnica, tal como o SIFT Algoritmo, e os softwares são, por exemplo, o Blender, o Labview, e o Matlab.[067] With this data, processing takes place after the images have been uploaded to the computer to obtain homologous points of the image pairs and, by the execution of a calibration algorithm and processing software, pertaining to the state of the art, such as like the SIFT Algorithm, and the software is, for example, Blender, Labview, and Matlab.

[068] A etapa (c) é construída uma imagem 3D a peça com o uso de um software pertencente ao estado da técnica, tal como o CAD, obtendo-se uma imagem que é exibida na tela do computador, tal como ilustrado na figura 3.[068] Step (c) a 3D piece-by-piece image is constructed using state-of-the-art software such as CAD and an image is displayed on the computer screen as shown in the figure. 3

[069] Na etapa de análise, a imagem 3D é inspecionada e os dados relativos a precisão das dimensões da peça como um todo, bem como, de cada um de suas secções serem obtidos. Esses dados são comparados com os dados de uma peça padrão armazenados no sistema. Após a comparação e, de acordo com a tolerância ajustada para a e peça, é realizado o processo decisório se a peça está aprovada ou não.[069] In the analysis step, the 3D image is inspected and data on the accuracy of the dimensions of the part as a whole, as well as from each of its sections are obtained. This data is compared to the standard part data stored in the system. After comparison, and according to the tolerance set for the part, the decision-making process is performed whether or not the part is approved.

[070] Estes dados são obtidos a partir de um procedimento de calibração realizado pelo software empregado, onde, πΐ é o plano de imagem da câmera 1; π2 é o plano de imagem da câmera 2; π3 é o plano de imagem da câmera 3; π 4 é o plano de imagem da câmera 4; π5 é o plano de imagem da câmera 5; πβ é o plano de imagem da câmera 6.[070] These data are obtained from a calibration procedure performed by the software employed, where, πΐ is the image plane of camera 1; π2 is the image plane of camera 2; π3 is the image plane of camera 3; π 4 is the image plane of camera 4; π5 is the image plane of camera 5; πβ is the image plane of camera 6.

[071] Com os dados dos parâmetros intrínsecos e extrínsecos obtidos, é possível controlar, as variáveis de iluminação e cor de fundo para que haja o melhor realce das bordas da peça de forma a encontrar o maior número de pontos correlatos entre as câmeras do conjunto de 4 a 8 câmeras (3.1), proporcionando a maior precisão possível no processo de medição.[071] With the data of the intrinsic and extrinsic parameters obtained, it is possible to control the illumination and background color variables so that there is the best enhancement of the edges of the part in order to find the largest number of correlated points between the cameras of the set. 4 to 8 cameras (3.1), providing the highest possible accuracy in the measurement process.

[072] Na etapa (e) o robô retira do berço (2.2) a peça analisada e o carrega para um transportador aéreo de acordo com o resultado da análise. Caso aprovada na análise, a peça é transportada para outro setor da linha de produção; caso reprovada na análise, a peça é descartada.[072] In step (e) the robot removes the analyzed part from the cradle (2.2) and carries it to an air carrier according to the result of the analysis. If approved in the analysis, the part is transported to another sector of the production line; If it fails the analysis, the part is discarded.

[073] Atualmente, as inspeções de peças forjadas a quente levam até 30 minutos para serem realizadas, e expõem o operador a riscos, tais como, queimaduras e danos nas mãos. O método de controle dimensional automatizado através de imagem computacional e geométrica de peças na linha de produção da presente invenção possibilita que uma peça leve entre 1 e 20 segundos para ser inspecionada à distância, fato que elimina o risco de contato do operador com a peça em análise. Preferencialmente, cada peça é analisada entre 5 e 15 segundos; mais preferencialmente, ainda, cada peça é inspecionada em até 10 segundos.[073] Inspections of hot forged parts currently take up to 30 minutes to perform, and expose the operator to hazards such as burns and hand damage. The automated dimensional control method through computational and geometrical imaging of parts on the production line of the present invention enables a lightweight part between 1 and 20 seconds to be remotely inspected, which eliminates the risk of operator contact with the part in question. analyze. Preferably, each piece is analyzed between 5 and 15 seconds; more preferably, each piece is inspected within 10 seconds.

[074] Na etapa (f), o robô retorna para uma posição de repouso, onde aguarda um nova peça a ser medida, além de estabelecer novamente as condições de partida para um novo ciclo.[074] In step (f), the robot returns to a rest position, where it waits for a new part to be measured, and re-establishes the starting conditions for a new cycle.

[075] E ainda, a invenção trata do uso do sistema de análise (4) de imagens para a medição dimensional de peças no controle de qualidade de uma linha de produção, de acordo com o método de controle dimensional automatizado através de imagem computacional e geométrica de peças na linha de produção da presente invenção que compreende as etapas de: (a) Inicialização; (b) Aquisição e processamento da imagem; (c) Construção de uma imagem 3D da peça; (d) Análise da peça; (e) Remoção da peça analisada; e, (f) Repouso.[075] Moreover, the invention deals with the use of the image analysis system (4) for dimensional measurement of parts in the quality control of a production line, according to the automated dimensional control method through computational imaging and geometry of parts in the production line of the present invention comprising the steps of: (a) initialization; (b) image acquisition and processing; (c) Construction of a 3D image of the part; (d) analysis of the part; (e) removal of the analyzed part; and, (f) Rest.

[076] Os objetos desta invenção, acima descritos têm suas concretizações ilustradas pelos exemplos abaixo. Entretanto, cabe ressaltar que os exemplos apresentados são meramente ilustrativos e não devem ser empregados na limitação dos direitos dos inventores, que se restringem somente àquilo contido nas reivindicações em anexo.[076] The objects of this invention described above have their embodiments illustrated by the examples below. However, it is noteworthy that the examples given are merely illustrative and should not be used to limit the rights of inventors, which are restricted solely to that contained in the appended claims.

[077] Finalmente, embora a invenção tenha sido amplamente descrita, é óbvio para aqueles versados na técnica que várias alterações e modificações podem ser feitas sem que as referidas alterações não estejam cobertas pelo escopo da invenção.Finally, while the invention has been broadly described, it is obvious to those skilled in the art that various changes and modifications may be made without such changes being covered by the scope of the invention.

Exemplos Exemplo 1 - protótipo de medição: [078] O desenvolvimento do protótipo de medição é feito com o auxilio da plataforma BLENDER (http://wiki.blender.org, 2011) de construção de modelos virtuais 3-D. Tal plataforma permite a obtenção de imagens das projeções do objeto nas câmeras, em um ambiente virtual. A plataforma MATLAB (Inc., 2011) é também usada como ferramenta matemática, com a finalidade de processar e analisar as informações provenientes das imagens.Examples Example 1 - Measurement prototype: [078] The development of the measurement prototype is done with the aid of the BLENDER platform (http://wiki.blender.org, 2011) to build 3-D virtual models. Such a platform allows to obtain images of the projections of the object in the cameras, in a virtual environment. The MATLAB platform (Inc., 2011) is also used as a mathematical tool for processing and analyzing information from images.

[079] O Blender é um software de simulação de ambientes virtuais de código aberto, otimizado para a produção de gráficos em 3D. 0 Blender oferece possibilidades para modelagem, texturização, iluminação, animação, renderização e processamento de video. Este software pèrmite a construção de ambientes virtuais controlados, sendo todas as coordenadas (absoluta ou relativa) são conhecidas.[079] Blender is open source virtual environment simulation software optimized for the production of 3D graphics. Blender offers possibilities for modeling, texturing, lighting, animation, rendering and video processing. This software allows the construction of controlled virtual environments, all coordinates (absolute or relative) being known.

[080] Para a obtenção das imagens, o Blender permite simular câmeras ideais, segundo o modelo descrito, com a opção de ajustar o foco, orientação, número de pixels e sua respectiva posição, dentre outras.[080] To obtain images, Blender allows you to simulate ideal cameras, according to the model described, with the option of adjusting focus, orientation, number of pixels and their respective position, among others.

[081] A figura 3 mostra o modelo adotado para a disposição do sistema de coordenadas X, Y e Z em cada câmera inserida no sistema de medição, além de mostrar o plano de imagem onde os pontos são projetados.[081] Figure 3 shows the model adopted for the arrangement of the X, Y and Z coordinate system in each camera inserted in the measurement system, and shows the image plane where the points are projected.

[082] A partir do sistema de coordenadas de cada câmera, monta-se o layout do sistema de medição, mostrado na figura 2. O sistema é composto por seis câmeras, sendo cada uma com seu sistema de referência, além de estabelecer uma nomenclatura adequada para cada parâmetro do sistema, conforme acima descrito.[082] From the coordinate system of each camera, the layout of the metering system is shown, shown in figure 2. The system consists of six cameras, each with its reference system, and establishes a nomenclature. appropriate for each system parameter as described above.

[083] Os parâmetros intrínsecos e extrinsecos são obtidos a partir do procedimento de calibração das câmeras.[083] Intrinsic and extrinsic parameters are obtained from the camera calibration procedure.

[084] A partir do layout do sistema e sua respectiva nomenclatura, criou-se o layout virtual e desta forma é possivel controlar, as variáveis de iluminação e cor de fundo foram ajustadas para que haja o melhor realce das bordas de forma a encontrar o maior número de pontos correlatos entre as 6 câmeras, proporcionando a maior precisão possivel no processo de medição.[084] From the system layout and its nomenclature, the virtual layout was created and this way it is possible to control, the illumination and background color variables were adjusted so that there is the best edge enhancement in order to find the highest number of correlated points between the 6 cameras, providing the highest possible accuracy in the measurement process.

[085] Além do controle dessas variáveis, no layout virtual também é possível controlar os parâmetros intrínsecos do sistema, a tabela 1.1 mostra os valores estabelecidos na construção do modelo virtual.[085] Besides controlling these variables, in the virtual layout it is also possible to control the intrinsic parameters of the system, table 1.1 shows the values established in the construction of the virtual model.

[086] O layout virtual foi desenvolvido para simular as condições de trabalho do sistema de medição e a partir deste modelo virtual serão simuladas as imagens e outros aspectos importantes para a validação do sistema.[086] The virtual layout was developed to simulate the working conditions of the measurement system and from this virtual model will be simulated the images and other important aspects for the validation of the system.

Exemplo 2 - Descrição da sequência de operações do protótipo: [087] A partir do layout virtual desenvolvido em Blender, é necessário estabelecer uma sequência de operações de trabalho que possibilite reconstruir o objeto, no caso o virabrequim, desta forma neste tópico serão mostradas as etapas necessárias que possibilite a reconstrução do virabrequim.Example 2 - Description of the prototype operation sequence: [087] From the virtual layout developed in Blender, it is necessary to establish a sequence of work operations that makes it possible to reconstruct the object, in this case the crankshaft. necessary steps to enable crankshaft reconstruction.

[088] A primeira etapa a ser detalhada será a extração dos parâmetros intrínsecos e extrinsecos obtidos a partir do modelo virtual, a obtenção das imagens, o processamento das imagens com o SIFT algoritmo para a obtenção de pontos homólogos em pares de imagens e para finalizar o modelo matemático da reconstrução 3D do virabrequim.[088] The first step to be detailed will be the extraction of intrinsic and extrinsic parameters obtained from the virtual model, the obtaining of images, the processing of images with the SIFT algorithm to obtain homologous points in pairs of images and to finalize. the mathematical model of the 3D crankshaft reconstruction.

Exemplo 3 - Calibração 3D do Sistema de Medição: [089] Para obter-se a calibração do sistema de medição é necessário estimar os parâmetros intrínsecos e extrinsecos do sistema, desta forma, utilizar-se-á o método de calibração com tabuleiro de xadrez, conhecido pelos versados na arte. O mesmo modelo virtual de 6 câmeras será utilizado, com a inserção do tabuleiro de xadrez e retirada do virabrequim.Example 3 - Measurement System 3D Calibration: [089] To obtain the calibration of the measurement system it is necessary to estimate the intrinsic and extrinsic parameters of the system, so the chessboard calibration method will be used. , known to those skilled in the art. The same 6-camera virtual model will be used, with the chessboard inserted and the crankshaft removed.

[090] O tabuleiro de xadrez inserido no modelo virtual possui dimensões de 800 x 800 x 1 (mm), sendo esta dimensão ideal para a visualização das câmeras.[090] The chessboard inserted in the virtual model has dimensions of 800 x 800 x 1 (mm), which is ideal for viewing cameras.

[091] Para uma correta estimação dos parâmetros é recomendável obter-se 15 imagens em cada câmera para cada par de câmeras a ser calibrada, ou seja, para estimar a distância 1RT2 são necessárias 15 imagens para cada câmera e proceder com o algoritmo de calibração.[091] For the correct estimation of parameters it is recommended to get 15 images on each camera for each pair of cameras to be calibrated, ie to estimate the 1RT2 distance 15 images are required for each camera and proceed with the calibration algorithm. .

[092] A partir da escolha do método de calibração planar com tabuleiro de xadrez, faz-se necessário escolher uma ferramenta para calibração que possua as ferramentas necessárias para estimar os parâmetros de acordo com o método de (ZHANG, 2000).[092] From the choice of the planar calibration method with chessboard, it is necessary to choose a calibration tool that has the necessary tools to estimate the parameters according to the method of (ZHANG, 2000).

[093] Desta forma, a ferramenta escolhida para a calibração das câmeras foi o toolbox de calibração de câmeras para Matlab desenvolvido por (BOUGUET, 1999), que está disponível na Web em http://www.vision.caltech.edu/bouguetj/calib_jdoc/, este aplicativo permite ler imagens de calibração, extrair os pontos de calibração, os vértices dos quadrados presentes na imagem; calibrar a câmera, apresentar os resultados, controlar a precisão, adicionar e suprimir imagens, corrigir imagens distorcidas, alterar o modelo intrínseco da câmera escolhendo qual parâmetro otimizar, calibrar um sistema stereo , retificar imagens stereo e determinar os pontos em 3D utilizando o principio da Triangulação stereo. Além disso, permite adaptar os dados utilizados pelos métodos de calibração propostos por (ZHANG, 2000), (BAKSTEIN, 1999), (HEIKKILA, 1997) de forma a serem utilizados pelo método de calibração implementado no toolbox.[093] Thus, the tool chosen for camera calibration was the camera calibration toolbox for Matlab developed by (BOUGUET, 1999), which is available on the web at http://www.vision.caltech.edu/bouguetj / calib_jdoc /, this app allows you to read calibration images, extract calibration points, the vertices of the squares present in the image; calibrate the camera, display results, control accuracy, add and delete images, correct distorted images, change the camera's intrinsic model by choosing which parameter to optimize, calibrate a stereo system, rectify stereo images and determine 3D points using the principle of Stereo triangulation. Moreover, it allows adapting the data used by the calibration methods proposed by (ZHANG, 2000), (BAKSTEIN, 1999), (HEIKKILA, 1997) to be used by the calibration method implemented in the toolbox.

[094] De acordo com a teoria indicada no item 3.2, o modelo da câmera utilizado pelo método de calibração implementado, tem os seguintes parâmetros a estimar: —Parâmetros extrinsecos: utilizados para transformar as coordenadas 3D do sistema mundo em coordenadas 3D no sistema da câmera, para cada posição e orientação do plano de calibração. Desta forma, há seis parâmetros extrinsecos: a matriz de rotação 3D Rc= (3x3) e as três componentes do vetor translação Tc=(3xl). —Parâmetros intrínsecos: utilizados para a transformação das coordenadas 3D no sistema da câmera em coordenadas 2D.[094] According to the theory indicated in item 3.2, the camera model used by the implemented calibration method has the following parameters to estimate: —Extrinsic parameters: used to transform the 3D coordinates of the world system into 3D coordinates in the system of each position and orientation of the calibration plan. Thus, there are six extrinsic parameters: the 3D rotation matrix Rc = (3x3) and the three components of the translation vector Tc = (3xl). —Intrinsic Parameters: Used for transforming 3D coordinates in the camera system to 2D coordinates.

[095] Há quatro parâmetros intrínsecos no modelo: —Distância focal: representa a distância, em pixels, entre o centro de projeção e o plano de imagem (nos eixos i e j) e é colocado no vetor fc (2x1). —Centro ótico da imagem: representa as coordenadas, em pixels, do centro ótico da imagem e é colocado no vetor cc (2x1) . —Coeficiente de defasamento: representa o ângulo entre os eixos x e y da imagem e é colocado na variável alpha_c. —Distorções: representa os coeficientes de distorção da imagem (radial e tangencial) e são colocadas no vetor kc.[095] There are four intrinsic parameters in the model: —Focal distance: represents the distance, in pixels, between the projection center and the image plane (on the i and j axes) and is placed on the fc vector (2x1). —Optical Image Center: Represents the coordinates, in pixels, of the optical center of the image and is placed in the cc vector (2x1). —Lift coefficient: represents the angle between the x and y axes of the image and is placed in the alpha_c variable. —Distances: represents the distortion coefficients of the image (radial and tangential) and are placed in the vector kc.

[096] Para a extração dos parâmetros descritos acima, para cada câmera, foi realizado o procedimento de calibração, sendo necessários os seguintes passos: leitura das imagens de calibração, extração dos vértices dos quadrados nas imagens, calibração da câmera e apresentação dos resultados.[096] For the extraction of the parameters described above, for each camera, the calibration procedure was performed, requiring the following steps: reading the calibration images, extracting the vertices of the squares in the images, camera calibration and presentation of the results.

[097] Após a leitura das imagens foi realizada a extração dos vértices dos quadrados do tabuleiro de calibração e para esta etapa foi necessário fornecer os parâmetros no Matlab, tais como: Number of images to process - Este parâmetro indica o número de imagens a serem processadas para extração dos pontos de calibração; Wintx e Winty - Este parâmetro estima o tamanho por defeito de janela na busca dos vértices nas direções X e Y respectivamente; Number of Squares - Este parâmetro permite parametrizar a quantidade de quadrados presentes na imagem de calibração.[097] After reading the images, the vertices of the calibration tray were extracted and for this step it was necessary to provide the parameters in Matlab, such as: Number of images to process - This parameter indicates the number of images to be processed for extraction of calibration points; Wintx and Winty - This parameter estimates the default window size when searching for vertices in X and Y directions respectively; Number of Squares - This parameter allows you to parameterize the amount of squares present in the calibration image.

[098] Após o fornecimento dos parâmetros de entrada, são mostradas as imagens na sequência numerada no qual se escolhem quatro vértices nos extremos do padrão retangular seguindo o seguinte procedimento: primeiro, pressiona-se, sobre a imagem, o local do vértice que corresponde ao ponto de origem da janela de referência do tabuleiro; em seguida, escolhem-se os outros três pontos no tabuleiro de xadrez, seguindo uma ordem circular independente do sentido escolhido.[098] After inputting the input parameters, the images are shown in the numbered sequence in which four vertices are chosen at the ends of the rectangular pattern by following this procedure: first, the corresponding vertex location is pressed over the image. the origin point of the tray reference window; The other three points are then chosen on the chessboard in a circular order regardless of the direction chosen.

[099] Após o procedimento de localização dos quatro vértices nas quinze fotos o algoritmo encontra os cantos conforme do tabuleiro padrão.[099] Following the procedure of locating the four vertices in the fifteen photos the algorithm finds the conforming corners of the standard board.

[100JA recuperação da informação 3D pela estimação dos parâmetros da câmera consiste em associar alguns valores arbitrários para parâmetros intrínsecos e então estimar os extrinsecos. O processo de estimação dos parâmetros intrínsecos pode ser obtido pelo método descrito por (BOUGUET, 1999). Os resultados obtidos através desse método são mostrados na tabela 2 que apresenta um exemplo dos valores encontrados para a matriz de calibração.[100] Retrieving 3D information by estimating camera parameters consists of associating some arbitrary values for intrinsic parameters and then estimating extrinsic ones. The process of estimating intrinsic parameters can be obtained by the method described by (BOUGUET, 1999). The results obtained by this method are shown in table 2 which presents an example of the values found for the calibration matrix.

[101]Após a calibração de cada câmera deve-se fazer a calibração estéreo em pares de câmeras para a estimação dos parâmetros extrinsecos. A partir desses parâmetros é possível desenvolver o modelo matemático para medição do produto e determinar as coordenadas 3D.[101] After calibrating each camera, stereo calibration should be performed on camera pairs to estimate extrinsic parameters. From these parameters it is possible to develop the mathematical model for product measurement and determine the 3D coordinates.

[102] A primeira etapa para estimar os parâmetros é efetuar a leitura dos resultados da calibração intrínseca de f‘ cada câmera, esta função permite ler os pares de imagens obtidos pelas duas câmeras (cada par corresponde ao mesmo plano de calibração observado pelas câmeras em posições/orientações diferentes), sendo por convenção, as duas câmeras as quais se realiza a calibração estéreo são designadas por: câmera esquerda e direita.[102] The first step in estimating the parameters is to read the intrinsic calibration results of f 'each camera, this function allows you to read the pairs of images obtained by the two cameras (each pair corresponds to the same calibration plane observed by the cameras in different positions / orientations), being by convention, the two cameras which perform the stereo calibration are called: left and right camera.

[103] Os parâmetros de entrada e saida mostrados abaixo: —Name of the Left Calibration File: nome do arquivo que contém os parâmetros de calibração da câmera esquerda. —Name of the Right Calibration File: nome do arquivo que contém os parâmetros de calibração da câmera direita. —Stereo Calibration Parameters: são apresentados os parâmetros intrínsecos, estimados a partir das calibrações individuais de cada câmera, e os parâmetros extrínsecos, estimados a partir da calibração estéreo e que descrevem a posição da câmera direita relativamente à câmera esquerda.[103] The input and output parameters shown below: —Name of the Left Calibration File: Name of the file containing the left camera calibration parameters. —Name of the Right Calibration File: Name of the file that contains the right camera calibration parameters. —Stereo Calibration Parameters: Intrinsic parameters, estimated from the individual calibrations of each camera, and extrinsic parameters, estimated from stereo calibration, describing the position of the right camera relative to the left camera are presented.

[104] Os parâmetros extrínsecos om e T, resultantes da calibração estéreo, são determinados a partir da correspondência entre os pontos de calibração de cada par de imagens do plano de calibração observado pelas duas câmeras em posição/orientação diferentes. Assim, esses parâmetros são definidos tal que considerando um ponto P no espaço 3D, os seus dois vetores de coordenadas Xi e Xr no referencial da câmera esquerda e direita, respectivamente, estão relacionados pela transformação de corpo rígido: Xr =R x Xi x T, onde R é a matriz de rotação (3 x 3) correspondente ao vetor de rotação om (3 x 1).[104] The extrinsic parameters om and T resulting from stereo calibration are determined by matching the calibration points of each pair of calibration plane images observed by the two cameras in different position / orientation. Thus, these parameters are defined such that considering a point P in 3D space, its two coordinate vectors Xi and Xr in the left and right camera frame, respectively, are related by the rigid body transformation: Xr = R x Xi x T where R is the rotation matrix (3 x 3) corresponding to the rotation vector om (3 x 1).

[105] Após o procedimento de calibração obtêm-se os parâmetros extrinsecos om e T para cada par de câmeras, como mostrado na tabela 3.[105] After the calibration procedure, the extrinsic parameters om and T are obtained for each pair of cameras, as shown in table 3.

[106] Para o modelo de medição proposto é necessária executar o procedimento de calibração intrínseca para cada câmera e conforme já mencionado é necessário executar o procedimento de calibração extrínseca para os cinco pares de câmeras. Conforme figura 2.[106] For the proposed measurement model it is necessary to perform the intrinsic calibration procedure for each camera and as already mentioned it is necessary to perform the extrinsic calibration procedure for the five camera pairs. According to figure 2.

Exemplo 4 - Posicionamento das câmeras a partir do sistema de coordenadas global: [107] A partir da declaração da nomenclatura dos itens do modelo, do procedimento de calibração, a próxima etapa é calcular a posição das câmeras a partir do sistema de coordenadas global PW[XW, YW,ZW] , sendo as matrizes de rotação e translação obtidas a partir da calibração das câmeras é possível obter a posição da câmera a partir da equação (1): pc = RPw + T (1) Sendo: pc = posição da câmera a partir do sistema de coordenadas global; R = vetor de rotação entre as câmeras;Example 4 - Positioning the cameras from the global coordinate system: [107] From the declaration of the nomenclature of the model items of the calibration procedure, the next step is to calculate the position of the cameras from the global coordinate system PW. [XW, YW, ZW], being the rotation and translation matrices obtained from camera calibration it is possible to obtain the camera position from equation (1): pc = RPw + T (1) Where: pc = position from the camera from the global coordinate system; R = rotation vector between cameras;

Pw = sistema global de coordenadas; T = vetor de translação entre as câmeras;Pw = global coordinate system; T = translation vector between cameras;

[108] De acordo com a as matrizes de rotação é efetuando o cálculo, para a posição da câmera 2, tomando como exemplo os dados da tabela 3 tem-se a seguinte matriz de rotação: [109] Da mesma forma para o vetor de translação tem-se: [110] Sendo o sistema global de coordenadas Pw com os valores mostrados abaixo: [111] Efetuando o cálculo da posição da câmera 2 tem—se: [112] Efetuando a inversão do resultado obtido tem-se o valor da posição da câmera 2 a partir de Pw. pc2-1 = [1209.576380 0.009532 0.94070] [113] Desta forma é possível calcular do posicionamento do restante das câmeras, somando as matrizes de translação, somando os ângulos de rotação e efetuando os cálculos conforme descrito acima.[108] According to the rotation matrices the calculation is made for the position of camera 2, taking as an example the data from table 3 we have the following rotation matrix: [109] Similarly for the vector of [110] Being the global coordinate system Pw with the values shown below: [111] Performing camera 2 calculates: [112] Reversing the result gives the value of camera position 2 from Pw. pc2-1 = [1209.576380 0.009532 0.94070] [113] This way you can calculate the positioning of the rest of the cameras by adding the translation matrices, adding the rotation angles and performing the calculations as described above.

Exemplo 5 - obtenção de imagens da peça (virabrequim) para a reconstrução: [114]Esta etapa consiste em obter as imagens do virabrequim utilizando o modelo virtual. Conforme mencionado, com o Blender é possível obter imagens com controle de fundo, luminosidade e outras características da cena, além destas propriedades é necessário aplicar uma textura no virabrequim, este procedimento é necessário para facilitar a identificação de pontos homólogos quando as imagens forem processadas com o SIFT Algoritmo.Example 5 - Obtaining images of the part (crankshaft) for reconstruction: [114] This step consists of obtaining the images of the crankshaft using the virtual model. As mentioned, with Blender it is possible to obtain images with background control, brightness and other scene characteristics, besides these properties it is necessary to apply a texture to the crankshaft, this procedure is necessary to facilitate the identification of homologous points when the images are processed with the SIFT algorithm.

[115] Desta forma, para obter-se as imagens do virabrequim é necessário posicionar o plano de visão do Blender no plano de imagem da câmera que se deseja obter a vista.[115] Thus, to obtain the crankshaft images it is necessary to position the Blender's plane of view on the camera's plane of view.

[116] A partir da seleção da câmera efetua-se a obtenção da imagem na câmera selecionada, a Figura 4 mostra a imagem do virabrequim obtida a partir do plano de imagem da câmera 1 .[116] Selecting the camera takes the image on the selected camera, Figure 4 shows the crankshaft image obtained from the camera image plane 1.

Exemplo 6 - processamento da imagem: [117] Com as imagens do virabrequim, faz-se necessário o processamento das imagens com o SITF Algoritmo para a obtenção dos pontos homólogos nos pares de imagem. Com o auxilio da ferramenta computacional Matlab é possível o processamento dos pares de imagens.Example 6 - Image Processing: [117] With crankshaft images, it is necessary to process the images with the SITF Algorithm to obtain homologous points in the image pairs. With the aid of the Matlab computational tool it is possible to process image pairs.

[118] Essa correspondência é muito importante, pois com esses pontos será possível calcular as coordenadas dos pontos e reconstruir o virabrequim.[118] This correspondence is very important because with these points it will be possible to calculate the coordinates of the points and reconstruct the crankshaft.

[119] O algoritmo retorna o resultado dos pontos correspondentes em um vetor com a numeração correspondente em ambas às figuras, como mostra a figura 5. Por último o algoritmo também retorna um vetor com as coordenadas em pixels f(x,y) da localização de cada ponto na foto correspondente , conforme mostra a Figura 6.[119] The algorithm returns the result of the corresponding points in a vector with the corresponding numbering in both figures, as shown in figure 5. Finally the algorithm also returns a vector with the f (x, y) pixel coordinates of the location. each point in the corresponding photo, as shown in Figure 6.

[120] Com o vetor de coordenadas, conforme mostrado na figura 6, é possível plotar esses pontos num plano de imagem e a partir do tópico seguinte, efetuar a reconstrução 3D do virabrequim.[120] With the coordinate vector, as shown in figure 6, it is possible to plot these points on an image plane and from the following topic, perform the 3D crankshaft reconstruction.

[121] Um ponto plotado no plano de imagem 1, sendo que a coluna do vetor indica a localização do ponto a partir do vetor da figura 5, a linha um indica a coordenada em pixel da coordenada no eixo x e a linha dois indica a coordenada do pixel no eixo y.[121] A point plotted on image plane 1, where the vector column indicates the location of the point from the vector in figure 5, line one indicates the pixel coordinate of the x-axis coordinate, and line two indicates the coordinate of the pixel on the y axis.

[122] Desta forma, a partir do modelo matemático que será explanado no tópico a seguir, com um ponto visto no plano de imagem de duas câmeras diferentes, por exemplo, nas câmeras 1 e 2 é possível calcular as coordenadas no espaço do sistema de coordenadas global PW[XW , Yw, Zwl Exemplo 7 - Modelo matemático para a reconstrução 3D do . virabrequim: [123] Com todos os procedimentos mostrados acima, faz-se necessário reconstruir o virabrequim, desta forma é necessário utilizar um modelo matemático que possibilite acessar as coordenadas dos pontos homólogos provenientes do processamento das imagens com o SIFT Algoritmo, efetuar o cálculo das coordenadas do mesmo no espaço a partir do sistema de coordenadas global Pw \xw, Yw zw\ e plotá-lo.[122] Thus, from the mathematical model that will be explained in the following topic, with a point seen in the image plane of two different cameras, for example, in cameras 1 and 2 it is possible to calculate the coordinates in the space of the system. global coordinates PW [XW, Yw, Zwl Example 7 - Mathematical model for the 3D reconstruction of the. With all the procedures shown above, it is necessary to reconstruct the crankshaft, so it is necessary to use a mathematical model that makes it possible to access the coordinates of the homologous points from the image processing with the SIFT Algorithm, to perform the calculation of the coordinates of it in space from the global coordinate system Pw \ xw, Yw zw \ and plot it.

[124] Para esta tarefa, desenvolver-se-á um modelo matemático que será implementado no Matlab e como resultado final devolverá as coordenadas de cada ponto no espaço, além de mostrar o virabrequim reconstruído com os pontos calculados.[124] For this task, a mathematical model will be developed that will be implemented in Matlab and as a final result will return the coordinates of each point in space, in addition to showing the reconstructed crankshaft with the calculated points.

[125] Neste modelo, a primeira tarefa a ser implementada é efetuar a localização das câmeras no espaço, a partir do sistema de coordenadas global PW[XW,YW,ZW]. Cada câmera deve ser posicionada a partir das matrizes de rotação e translação obtidas do procedimento de calibração das câmeras. A partir desta necessidade, têm-se as seguintes equações para a localização das câmeras.[125] In this model, the first task to be implemented is to locate cameras in space from the PW global coordinate system [XW, YW, ZW]. Each camera should be positioned from the rotation and translation matrices obtained from the camera calibration procedure. From this need, we have the following equations for camera location.

[126] Para a câmera 1 tem-se a equação 3: pcl — Pw (3) [127] Ou seja, o centro da câmera 1 coincide com o sistema de coordenadas global Pw[ Xw. Yw, Zw] .[126] For camera 1 we have equation 3: pcl - Pw (3) [127] That is, the center of camera 1 coincides with the global coordinate system Pw [Xw. Yw, Zw].

[128] Para a câmera 2 tem-se a equação 4: pc2 = R12Pw + 7*i2 ( 4 ) [129] Sendo: pc2 = posição da câmera 2 a partir do sistema de coordenadas global ; R12 = vetor de rotação entre a câmera 1 e 2; P_w = sistema global de coordenadas; T12 = vetor de translação entre a câmera 1 e 2;[128] For camera 2 we have equation 4: pc2 = R12Pw + 7 * i2 (4) [129] Where: pc2 = position of camera 2 from the global coordinate system; R12 = rotation vector between camera 1 and 2; P_w = global coordinate system; T12 = translation vector between camera 1 and 2;

[130] Para a câmera 3 tem-se a equação 5: pc3 = R23pc2 + T23( 5) [131] Sendo: pc3 == posição da câmera 3 a partir do sistema de coordenadas global ; R23 = vetor de rotação entre a câmera 2 e 3; pc2 = posição da câmera 2 a partir do sistema de coordenadas global ; T23 = vetor de translação entre a câmera 2 e 3;[130] For camera 3 we have equation 5: pc3 = R23pc2 + T23 (5) [131] Where: pc3 == position of camera 3 from the global coordinate system; R23 = rotation vector between camera 2 and 3; pc2 = camera position 2 from the global coordinate system; T23 = translation vector between camera 2 and 3;

[132] Para a câmera 4 tem-se a equação 6: pc4 = R34pc3 + 7*34 (6) [ 133]Sendo: pc4 = posição da câmera 4 a partir do sistema de coordenadas global ; R34 — vetor de rotação entre a câmera 3 e 4; pc3 = posição da câmera 3 a partir do sistema de coordenadas global ; T34 = vetor de translação entre a câmera 2 e 3;[132] For camera 4 we have equation 6: pc4 = R34pc3 + 7 * 34 (6) [133] Where: pc4 = camera 4 position from the global coordinate system; R34 - rotation vector between camera 3 and 4; pc3 = camera position 3 from the global coordinate system; T34 = translation vector between camera 2 and 3;

[134]Para a câmera 5 tem-se a equação 7: pc5 = /?45pc4 + Τ45Π) [135] Sendo: pc5 = posição da câmera 5 a partir do sistema de coordenadas global; R4 5 = vetor de rotação entre a câmera 4 e 5; pc4 = posição da câmera 4 a partir do sistema de coordenadas global; T45 = vetor de translação entre a câmera 4 e 5;[134] For camera 5 we have equation 7: pc5 = /? 45pc4 + Τ45Π) [135] Where: pc5 = position of camera 5 from the global coordinate system; R4 5 = rotation vector between camera 4 and 5; pc4 = camera position 4 from the global coordinate system; T45 = translation vector between camera 4 and 5;

[136] Para a câmera 6 tem-se a equação 8: pc6 = R56pc5 + T56 (8) [137] Sendo: pc6 = posição da câmera 6 a partir do sistema de coordenadas global; R56 = vetor de rotação entre a câmera 5 e 6; pc5 = posição da câmera 5 a partir do sistema de coordenadas global; T56 = vetor de translação entre a câmera 5 e 6;[136] For camera 6 we have equation 8: pc6 = R56pc5 + T56 (8) [137] Where: pc6 = camera 6 position from the global coordinate system; R56 = rotation vector between camera 5 and 6; pc5 = camera position 5 from the global coordinate system; T56 = translation vector between camera 5 and 6;

[138] A partir do posicionamento das câmeras no espaço, conforme mostram as equações 3, 4, 5, 6, 7 e 8, é necessário efetuar a leitura dos vetores gerados pelo SIFT algoritmo, e plotar as coordenadas de cada ponto processado em seu respectivo plano de imagem, desta forma pode-se efetuar o cálculo de sua respectiva coordenada no espaço.[138] From the positioning of cameras in space, as shown in equations 3, 4, 5, 6, 7 and 8, it is necessary to read the vectors generated by the SIFT algorithm, and plot the coordinates of each point processed in its image plane, this way you can calculate its respective coordinate in space.

[139] Um exemplo de obtenção de um ponto no espaço a partir da teoria mostrada no item 2.8.5, ou seja, a partir do acesso das coordenadas em pixels f{x,y) de um ponto homólogo, deve-se construir duas retas que partem de suas respectivas distâncias focais até se cruzarem no espaço, a distância entre PW[XW, YW,ZW] até o ponto P[X,Y,Z] indica as coordenadas deste ponto no espaço.[139] An example of obtaining a point in space from the theory shown in 2.8.5, that is, from the access to pixel coordinates f (x, y) of a homologous point, one should construct two lines that depart from their respective focal lengths until they intersect in space, the distance between PW [XW, YW, ZW] to the point P [X, Y, Z] indicates the coordinates of this point in space.

[14Ο]Matematicamente têm-se as seguintes equações para plotar os pontos em seus respectivos planos de imagem.[14Ο] The following equations are mathematically used to plot the points on their respective image planes.

[141] Para localizar matematicamente o conjunto de pontos ρ'1[χ',γ'] no plano de imagem nl com relação ao PW[XW,YW,ZW\ , utiliza-se a equação 9: PttI - [(960 - Pulx) - 480 (270 - Pitly) FC1] { 9) [142] Onde: Ρπΐ = Localização do ponto no plano de imagem nl com relação ao PW{XW,YW,Zw];[141] To mathematically locate the set of points ρ'1 [χ ', γ'] in the image plane nl with respect to PW [XW, YW, ZW \, use equation 9: PttI - [(960 - Pulx) - 480 (270 - Pitly) FC1] {9) [142] Where: Ρπΐ = Location of the point on the image plane nl with respect to PW {XW, YW, Zw];

Ptí lx = coordenada em pixels do ponto no eixo X, cuja coordenada é acessada no vetor de vetor de localização f(x,y), como mostrado na figura 6;Ptíxx = pixel coordinate of the point on the X axis, whose coordinate is accessed in the location vector vector f (x, y), as shown in figure 6;

Pitly = coordenada em pixels do ponto no eixo Y, cuja coordenada é acessada no vetor de vetor de localização /(x,y), como mostrado na figura 6; PCI = distância focal da câmera 1 , resultado da calibração da câmera;Pitly = coordinate in pixels of the point on the Y axis, whose coordinate is accessed from the location vector vector / (x, y), as shown in figure 6; PCI = camera focal length 1, result of camera calibration;

[143] Para localizar matematicamente o conjunto de pontos p'2[x',yr] no plano de imagem π2 com relação ao Pw[Xw,yw,zw] , utiliza-se a equação 10: Ρπ2 = [ ((960 - Ρπ2χ) - 48θ) + (lRT2x) (270 - Pn2y) + (lRT2y) FC2 (10) Onde: Ρπ2 = Localização do ponto no plano de imagem n2 com relação ao PW[XW , Yw, Zw]; Ρπ2χ = coordenada em pixels do ponto no eixo X, cuja coordenada é acessada no vetor de vetor de localização f(x,y), como mostrado na figura 6;[143] To mathematically locate the set of points p'2 [x ', yr] in the image plane π2 with respect to Pw [Xw, yw, zw], use equation 10: Ρπ2 = [((960 - Ρπ2χ) - 48θ) + (lRT2x) (270 - Pn2y) + (lRT2y) FC2 (10) Where: Ρπ2 = Location of the point on image plane n2 with respect to PW [XW, Yw, Zw]; Ρπ2χ = coordinate in pixels of the point on the X axis, whose coordinate is accessed in the location vector vector f (x, y), as shown in figure 6;

Ptí2y = coordenada em pixels do ponto no eixo Y, cuja coordenada é acessada no vetor de vetor de localização /(;x:,y), como mostrado na figura 6; lRT2x e lRT2y = componentes XeY do vetor de translação entre as câmeras 1 e 2; FC 2= distância focal da câmera 2 , resultado da calibração da câmera;Ptí2y = coordinate in pixels of the point on the Y axis, whose coordinate is accessed in the location vector vector / (;; x:, y), as shown in figure 6; lRT2x and lRT2y = XeY components of the translation vector between cameras 1 and 2; FC 2 = camera focal length 2, result of camera calibration;

[144] Para localizar matematicamente o conjunto de pontos p'3[x',y'] no plano de imagem π3 com relação ao P\V [XW,YW'ZW] , utiliza-se a equação 11: Pn 3 = [((960 - Pn3x) - 480) + (lRT2x) + (2RT3x) (270 - Ρπ2γ) + (lRT2y) + (2P73y) FC3] {11) [145] Onde: Ρπ3 = Localização do ponto no plano de imagem n3 com relação Pw l.Xw Yw> Zwl' Ρίι3χ = coordenada em pixels do ponto no eixo X, cuja coordenada é acessada no vetor de vetor de localização fix.y'), como mostrado na figura 6; Ρπ3γ = coordenada em pixels do ponto no eixo Y, cuja coordenada é acessada no vetor de vetor de localização /(^,y)r como mostrado na figura 6; lRT2x e lRT2y = componentes XeY do vetor de translação entre as câmeras 1 e 2; 2RT3x e 2RT3y = componentes XeY do vetor de translação entre as câmeras 2 e 3; FC3= distância focal da câmera 3 , resultado da calibração da câmera;[144] To mathematically locate the set of points p'3 [x ', y'] in the image plane π3 with respect to P \ V [XW, YW'ZW], use equation 11: Pn 3 = [ ((960 - Pn3x) - 480) + (lRT2x) + (2RT3x) (270 - Ρπ2γ) + (lRT2y) + (2P73y) FC3] {11) [145] Where: Ρπ3 = Location of the point in the image plane n3 with respect to Pw l.Xw Yw> Zwl 'Ρίι3χ = coordinate in pixels of the point on the X axis, whose coordinate is accessed in the location vector vector fix.y'), as shown in figure 6; Ρπ3γ = pixel coordinate of the point on the Y axis, whose coordinate is accessed in the location vector vector / (^, y) r as shown in figure 6; lRT2x and lRT2y = XeY components of the translation vector between cameras 1 and 2; 2RT3x and 2RT3y = XeY components of the translation vector between cameras 2 and 3; FC3 = camera focal length 3, result of camera calibration;

[146]Para localizar matematicamente o conjunto de pontos P'4[*',y'] no plano de imagem n4 com relação ao PW\XW,YW,ZW] , utiliza-se a equação 12: Ρπ4 = [((Ρπ4χ - 480)) + (-4RT5x) + (-5RT6x) (270 - Pm4y) + 4RT5y FC4] (12 ) Onde : Ρπ4 = Localização do ponto no plano de imagem n4 com relação 30 Pw [Xw, Yw, Zw]; Ρπ4χ = coordenada em pixels do ponto no eixo X, cuja coordenada é acessada no vetor de vetor de localização como mostrado na figura 6;[146] To mathematically locate the set of points P'4 [* ', y'] in image plane n4 with respect to PW \ XW, YW, ZW], use equation 12: Ρπ4 = [((Ρπ4χ - 480)) + (-4RT5x) + (-5RT6x) (270 - Pm4y) + 4RT5y FC4] (12) Where: Ρπ4 = Image point location n4 with respect to 30 Pw [Xw, Yw, Zw]; Ρπ4χ = coordinate in pixels of the point on the X axis, whose coordinate is accessed in the location vector vector as shown in figure 6;

Pix4y = coordenada em pixels do ponto no eixo Y, cuja coordenada é acessada no vetor de vetor de localização f(x, y), como mostrado na figura 6; 4RT5x e 4RT5y = componentes X e Y do vetor de translação entre as câmeras 4 e 5; 5RT6x = componente X do vetor de translação entre as câmeras 5 e 6; FC4= distância focal da câmera 4 , resultado da calibração da câmera;Pix4y = coordinate in pixels of the point on the Y axis, whose coordinate is accessed in the location vector vector f (x, y), as shown in figure 6; 4RT5x and 4RT5y = X and Y components of the translation vector between cameras 4 and 5; 5RT6x = X component of the translation vector between cameras 5 and 6; FC4 = camera 4 focal length, result of camera calibration;

[147] Para localizar matematicamente o conjunto de pontos p'5\x' ,y'] no plano de imagem n5 com relação ao pw[xw,Yw,zw] , utiliza-se a equação 13: Ρπ5 = [((Ρπ5χ - 480)) + (-5RT6x) (270 - Pm5y) + (4RT5y) FC5] (13) [148] Onde: Ρπ5 = Localização do ponto no plano de imagem n5 com relação ao Pw[Xw.Yw,Zw];[147] To mathematically locate the set of points p'5 \ x ', y'] in the n5 image plane with respect to pw [xw, Yw, zw], use equation 13: Ρπ5 = [((Ρπ5χ - 480)) + (-5RT6x) (270 - Pm5y) + (4RT5y) FC5] (13) [148] Where: Ρπ5 = Location of the point on image plane n5 with respect to Pw [Xw.Yw, Zw];

Ptt 5x = coordenada em pixels do ponto no eixo X, cuja coordenada é acessada no vetor de vetor de localização f(.x.yh como mostrado na figura 6;Ptt 5x = coordinate in pixels of the point on the X axis, whose coordinate is accessed in the location vector vector f (.x.yh as shown in figure 6;

Pm5y = coordenada em pixels do ponto no eixo Y, cuja coordenada é acessada no vetor de vetor de localização /(x,y), como mostrado na figura 6; 4RT5y = componenteY do vetor de translação entre as câmeras 4 e 5; 5RT6x = componente X do vetor de translação entre as câmeras 5 e 6; FC5= distância focal da câmera 5 , resultado da calibraçâo da câmera [149] Por último, para localizar matematicamente o conjunto de pontos p'6[x',y'] no plano de imagem πβ com relação ao PW\XW,YW,ZW] , utiliza-se a equação 14: Ρηβ = [((Ρπ6χ - 480)) (270 - Pmóy) FCô] (14) [150] Onde: Ptt6 = Localização do ponto no plano de imagem n6 com relação ao Pv l^w> Yw> %wl t Ρπ6χ = coordenada em pixels do ponto no eixo X, cuja coordenada é acessada no vetor de vetor de localização f(pc,y), como mostrado na figura 6;Pm5y = coordinate in pixels of the point on the Y axis, whose coordinate is accessed in the location vector vector / (x, y), as shown in figure 6; 4RT5y = Y component of the translation vector between cameras 4 and 5; 5RT6x = X component of the translation vector between cameras 5 and 6; FC5 = camera focal length 5, result of camera calibration [149] Finally, to mathematically locate the set of points p'6 [x ', y'] in the image plane πβ with respect to PW \ XW, YW, ZW], equation 14 is used: Ρηβ = [((Ρπ6χ - 480)) (270 - Pmóy) FCô] (14) [150] Where: Ptt6 = Location of the point on the image plane n6 with respect to Pv l ^ w> Yw>% wl t ππχ = coordinate in pixels of the point on the X axis, whose coordinate is accessed in the location vector vector f (pc, y), as shown in figure 6;

Ptx 6y = coordenada em pixels do ponto no eixo Y, cuja coordenada é acessada no vetor de vetor de localização f(jx,y), como mostrado na figura 6; FC6= distância focal da câmera 6 , resultado da calibraçâo da câmera;Ptx 6y = coordinate in pixels of the point on the Y axis, whose coordinate is accessed in the location vector vector f (jx, y), as shown in figure 6; FC6 = camera focal length 6 as a result of camera calibration;

[151] A partir do acesso das coordenadas dos pixels dos pontos homólogos processados com o SIFT Algoritmo e posicionamento do mesmo em seus respectivos planos de imagem, faz-se necessário neste momento o cálculo do mesmo no espaço, desta forma implementar-se-á o processamento do cálculo das coordenadas.[151] From the pixel coordinates access of the homologous points processed with the SIFT Algorithm and its positioning in their respective image planes, it is necessary at this moment to calculate it in space, so it will be implemented the processing of the coordinate calculation.

[152] Com as coordenadas dos pixels em relação ao pAXW. Yw> · o primeiro procedimento para o cálculo do ponto no espaço é para encontrar as matrizes A e B que serão utilizadas para encontrar a intersecção das retas formadas pela projeção do ponto nas duas câmeras.[152] With pixel coordinates relative to pAXW. Yw> · The first procedure for calculating the point in space is to find the matrices A and B that will be used to find the intersection of the lines formed by the point projection on the two cameras.

[153] A matriz A de dimensões 2x1 indica a posição do ponto em X e Y a partir do zero do sistema de coordenadas do mundo PW[XW, Yw, Zw]. Já a matriz B de dimensões 2x1 relaciona a distância focal das câmeras cujos pontos são mostrados em seu respectivo plano de imagem.[153] The 2x1 matrix A indicates the position of the point in X and Y from the zero of the PW world coordinate system [XW, Yw, Zw]. Already the matrix B of dimensions 2x1 relates the focal length of the cameras whose points are shown in their respective image plane.

[154] Com as matrizes A e B resolvidas, deve-se resolver a equação 2.79 que resultará em uma matriz de dimensões 2x1, onde encontrar-se-á o termo t [155] E para finalizar e encontrar P[X,Y,Z]r a partir do sistema global de coordenadas Pw [Xw, Yw, Zw] é necessário aplicar-se as matrizes de rotação, essa rotação é necessária, pois as câmeras estão posicionadas com um ângulo de rotação.[154] With the matrices A and B solved, we must solve equation 2.79 which will result in a matrix of dimensions 2x1, where we will find the term t [155] E to finish and find P [X, Y, Z] From the global coordinate system Pw [Xw, Yw, Zw] it is necessary to apply the rotation matrices, this rotation is necessary because the cameras are positioned with a rotation angle.

[156] Deve-se repetir todo o procedimento para cada par de pontos homólogos.[156] The entire procedure should be repeated for each pair of homologous points.

Exemplo 8 - Modelo Matemático para Comparação Estatística entre o Modelo CAD e o Método de Reconstrução: [157] A partir do modelo matemático para a reconstrução do virabrequim, com a aplicação do modelo mostrado acima, é necessário efetuar a verificação da precisão desta reconstrução a fim de demonstrar a eficácia da aplicação do sistema de medição.Example 8 - Mathematical Model for Statistical Comparison between the CAD Model and the Reconstruction Method: [157] From the mathematical model for crankshaft reconstruction, with the application of the model shown above, it is necessary to verify the accuracy of this reconstruction a demonstrate the effectiveness of the measurement system application.

[158] Neste tópico serão propostos os modelos matemáticos e a metodologia para o estudo do erro provocado pelas variáveis do processo de medição com câmeras.[158] In this topic, mathematical models and the methodology for studying the error caused by the variables of the camera measurement process will be proposed.

[159] No primeiro estudo é necessário criar pontos chave para a comparação do alinhamento do virabrequim reconstruído, desta forma, utilizar-se-á como base as informações mostradas no capítulo 1, sobre o processo de fabricação. A partir destes pontos será possível estabelecer o alinhamento do virabrequim.[159] In the first study it is necessary to create key points for comparing the reconstructed crankshaft alignment, so the information shown in chapter 1 on the manufacturing process will be used. From these points it will be possible to establish the crankshaft alignment.

[160] A partir do alinhamento dos pontos, é necessário estabelecer um modelo matemático para a verificação do erro, este modelo será baseado em procedimentos estatístico para a determinação do erro provocado pelas variáveis do processo de medição, tais como a estimação dos parâmetros intrínsecos e extrínsecos.[160] From the alignment of the points, it is necessary to establish a mathematical model for error checking, this model will be based on statistical procedures for determining the error caused by the measurement process variables, such as the estimation of intrinsic parameters and extrinsic.

[161] Para o estudo estatístico do erro, dois estudos são propostos: [162] O primeiro estudo analisará apenas o erro obtido comparando-se as coordenadas de cada ponto do modelo em CAD com a suas coordenadas correspondentes obtidas a partir da reconstrução em Matlab;[161] For the statistical study of error, two studies are proposed: [162] The first study will analyze only the error obtained by comparing the coordinates of each CAD model point with their corresponding coordinates obtained from the Matlab reconstruction. ;

[163] 0 segundo estudo utilizará os resultados do erro, obtidos no primeiro estudo, para analisar o grau de confiabilidade da reconstrução utilizando uma análise de dispersão deste erro.[163] The second study will use the error results obtained in the first study to analyze the reliability of the reconstruction using a dispersion analysis of this error.

Exemplo 9 - Modelo matemático para verificação do alinhamento de um virabrequim: [164] Nos itens anteriores deste capitulo foram desenvolvidos os modelos matemáticos para a reconstrução do virabrequim, neste tópico faz-se necessário o desenvolvimento de um modelo matemático para a verificação das características do corpo, no caso o virabrequim, desta forma algumas características serão estudadas, tais como a localização do centro de gravidade e seus respectivos ângulos diretores dos pontos chave para verificação do alinhamento do mesmo no espaço.Example 9 - Mathematical model for checking the alignment of a crankshaft: [164] In the previous items of this chapter we developed the mathematical models for crankshaft reconstruction, in this topic it is necessary to develop a mathematical model for checking the characteristics of the crankshaft. In the case of the crankshaft, some characteristics will be studied, such as the location of the center of gravity and its respective angles of key points to verify its alignment in space.

[165] A partir da necessidade citada acima, a figura 7 mostra os três cilindros que foram estabelecidos como pontos chave para o alinhamento do virabrequim, esses cilindros coincidem com a análise do processo de fabricação.[165] From the need cited above, Figure 7 shows the three cylinders that were established as key points for crankshaft alignment, these cylinders coincide with the analysis of the manufacturing process.

[166] Para efetuar-se o alinhamento, deve-se realizar as tarefas mostradas, abaixo: [167] A partir da determinação dos cilindros conforme mostrado na figura 7, faz-se necessário localizar o centro de gravidade dos mesmos a partir das coordenadas da nuvem de pontos. Desta forma deve-se procurar os pontos a partir dos critérios de busca estabelecidos, ou seja, estabelecer os limites para a procura dos pontos na nuvem a fim de localizar as coordenadas que fazem parte dos cilindros para posterior cálculo do centro de gravidade.[166] To perform alignment, perform the following tasks: [167] From the determination of the cylinders as shown in figure 7, it is necessary to locate their center of gravity from the coordinates. of the point cloud. In this way the points should be searched from the established search criteria, that is, to establish the limits for the search of the points in the cloud in order to locate the coordinates that are part of the cylinders for later calculation of the center of gravity.

[168] A partir da localização dos pontos pertencentes a cada cilindro, tem-se um conjunto de pixels com localização bidimensional que representa o contorno do cilindro no plano YZ. 0 conhecimento destes pontos tem um propósito, a reconstrução tridimensional. Obter o centro de gravidade de cada um dos cilindros significa conhecer a equação que o represente. Desta forma pode-se utilizar a equação geral de um elipse, num plano bidimensional, conforme (COXETER, 1969) esta equação é escrita conforme mostra a equação abaixo. ax2 + by2 + cx + dy + exy + f = 0 (15) [169] A partir das coordenadas, obtém-se o conjunto de pontos que representam o contorno do cilindro. Esses pontos, no plano bidimensional, tem suas coordenadas Y e Z mostradas a partir do zero do sistema de coordenadas do mundo PW[XW,YW,ZW}.[168] From the location of the points belonging to each cylinder, there is a set of two-dimensionally located pixels that represents the cylinder's outline in the YZ plane. Knowledge of these points has one purpose, three-dimensional reconstruction. Obtaining the center of gravity of each of the cylinders means knowing the equation that represents it. In this way the general equation of an ellipse can be used, in a two-dimensional plane, as (COXETER, 1969) this equation is written as shown in the equation below. ax2 + by2 + cx + dy + exy + f = 0 (15) [169] From the coordinates, the set of points representing the cylinder contour is obtained. These points on the two-dimensional plane have their Y and Z coordinates shown from the zero of the PW [XW, YW, ZW} world coordinate system.

[ 170]Utilizando-se a equação geral da elipse e com as coordenadas de todos os pontos do contorno do cilindro, pode-se escrever um sistema de equações homogêneas lineares, conforme mostrado na equação 16, onde o número de pontos minimos do contorno do circulo que devem ser conhecidos são seis, porém quanto mais pontos, melhor será a solução encontrada. Os pontos vão de 1 até i.[170] Using the general ellipse equation and the coordinates of all cylinder contour points, we can write a system of linear homogeneous equations, as shown in equation 16, where the number of minimum contour points of the circle that should be known is six, but the more points, the better the solution found. Points range from 1 to i.

[171] Fazendo-se a decomposição em valores singulares (svd) da matriz ix 6, tem-se o resultado mostrado na equação 17 .[171] Decomposing into singular values (svd) of the matrix ix 6 gives the result shown in equation 17.

[172] Os coeficientes elípticos de a até / da equação 4.16 são encontrados no autovetor da matriz decomposta V associado aos menores autovalores da diagonal da matriz D.[172] The elliptic coefficients a through / from equation 4.16 are found in the eigenvector of the decomposed matrix V associated with the smallest eigenvalues of the diagonal matrix D.

[173] Dessa maneira, conhecendo-se a equação da elipse na forma geral, mostrada na equação 15, é possível extrair os parâmetros correspondentes aos tamanhos do braço maior e menor, inclinação e coordenadas do centro. Outra forma de escrever a equação de uma elipse com est^o M v ^ Les novos parâmetros é mostrada na equação 18.[173] Thus, knowing the equation of the ellipse in its general form, shown in equation 15, it is possible to extract the parameters corresponding to the major and minor arm sizes, slope, and center coordinates. Another way to write the equation of an ellipse with this new parameter is shown in equation 18.

[174]Onde: aei = Braço maior da elipse; bel = Braço menor da elipse;[174] Where: aei = Larger arm of the ellipse; bel = Smaller arm of the ellipse;

Zc = Coordenada de centro do eixo Z;Zc = Z axis center coordinate;

Yc = Coordenada de centro do eixo Y; Θ = Ângulo de inclinação da elipse;Yc = Y axis center coordinate; Θ = Angle of inclination of the ellipse;

[175]Finalmente, as relações entre os coeficientes da equação da elipse 4.15 e seus parâmetros da equação 4.18 são mostrados nas equações da 19 até 23.Finally, the relationships between the coefficients of the equation of ellipse 4.15 and their parameters of equation 4.18 are shown in equations 19 through 23.

[176] Pelo fato de utilizar-se as coordenadas nos pontos de contorno da elipse, como já mencionado e mostrado na equação 16, os parâmetros encontrados para a elipse ZC,YC, aei e bel , são adimensionais .[176] Because the coordinates of the ellipse contour points are used, as already mentioned and shown in equation 16, the parameters found for the ellipse ZC, YC, aei, and bel are dimensionless.

[177] A partir da aplicação do procedimento exposto às coordenadas de cada um dos cilindros de referência, obtêm-se as coordenadas dos centros de gravidade dos cilindros 1, cilindro 2 e cilindro 3, sendo as coordenadas do centro dos cilindros, mostradas abaixo, a partir do sistema de referência global Pw CGX = [ 335,81 -4594,61 1431,52] CG2 = [2614,61 -4594,61 1431,52] CG3 = [ 4858,7 -4594,61 1431,52] [178] A partir das coordenadas do centro de gravidade dos cilindros deve-se achar um vetor de alinhamento, passando pelos centros de gravidade, a fim de comparar-se o alinhamento do virabrequim em relação aos eixos de referência. VA = ( CG3 - CGX ) (24) [179] A partir da equação 24 e das coordenadas dos centros de gravidade dos cilindros 1 e 3 do virabrequim, tem-se o seguinte vetor: VA = (4858,7 - 335,81 T) + ¢-4594,61 - (-4594,61)/) + (1431,52 - 1431,52 k) [180] Desta forma, tem-se o seguinte vetor de alinhamento: VA = (4522,89 T) + (Oj) + (0 k) Π 81] A partir do vetor de alinhamento, é necessário utilizar a equação 25.[177] Applying the procedure exposed to the coordinates of each of the reference cylinders gives the coordinates of the centers of gravity of cylinders 1, cylinder 2 and cylinder 3, with the coordinates of the center of the cylinders shown below. from the global reference system Pw CGX = [335.81 -4594.61 1431.52] CG2 = [2614.61 -4594.61 1431.52] CG3 = [4858.7 -4594.61 1431.52] [178] From the coordinates of the center of gravity of the cylinders, an alignment vector must be found across the centers of gravity to compare crankshaft alignment with reference axes. VA = (CG3 - CGX) (24) [179] From equation 24 and the coordinates of the centers of gravity of crankshaft cylinders 1 and 3, we have the following vector: VA = (4858.7 - 335.81 T) + ¢ -4594.61 - (-4594.61) /) + (1431.52 - 1431.52 k) [180] Thus, we have the following alignment vector: VA = (4522.89 T ) + (Oj) + (0 k) Π 81] From the alignment vector, equation 25 must be used.

[182] Sendo: uVA = vetor unitário; VA = módulo do vetor cartesiano; VAx ΐ Λ-VAy j +VAZ k = vetor cartesiano;[182] Where: uVA = unit vector; VA = Cartesian vector module; VAx ΐ Λ-VAy j + VAZ k = Cartesian vector;

[183] A partir da aplicação da equação 25, é possível efetuar o cálculo dos ângulos diretores coordenados, a partir da equação 26, 27 e 28.[183] From the application of equation 25, it is possible to calculate coordinate directional angles from equation 26, 27 and 28.

[184] Sendo a o ângulo formado pelo vetor com o eixo X.[184] A being the angle formed by the vector with the X axis.

[185] Sendo β o ângulo formado pelo vetor com o eixo Y.[185] Where β is the angle formed by the vector with the Y axis.

[186] Sendo γο ângulo formado pelo vetor com o eixo Z.[186] Being γο angle formed by the vector with the Z axis.

[187] A partir da aplicação das equações 25, 26, 27 e 28 tem-se a seguinte matriz de rotação para o virabrequim.[187] From the application of equations 25, 26, 27 and 28 we have the following rotation matrix for the crankshaft.

Exemplo 10 - Modelo Matemático para Análise Estatística do Erro: [188] Os procedimentos para efetuar-se a verificação do erro entre o virabrequim padrão (CAD) e o virabrequim reconstruído, sendo que a forma de verificação deste erro dar-se-á pela comparação entre uma nuvem de pontos do virabrequim padrão (CAD) e a nuvem de pontos do virabrequim reconstruído.Example 10 - Mathematical Model for Statistical Error Analysis: [188] The procedures for error checking between the standard crankshaft (CAD) and the reconstructed crankshaft, and the error checking shall be as follows: comparison between a standard crankshaft point cloud (CAD) and the rebuilt crankshaft point cloud.

[189] Uma nuvem de pontos I é um conjunto de pontos tridimensionais pí, com sua respectiva coordenada no espaço, tal que i=N e pi € R3, onde N é o tamanho da nuvem e no qual se tem apenas a informação geométrica sobre esses pontos, sem conhecimento de qualquer relação topológica obtida a partir de um modelo CAD.[189] A point cloud I is a set of three-dimensional points pi, with their respective coordinate in space, such that i = N and pi € R3, where N is the size of the cloud and only has geometric information about these points, without knowledge of any topological relationship obtained from a CAD model.

[190] A partir das coordenadas obtidas da nuvem de pontos do virabrequim padrão (CAD) e da nuvem de pontos do virabrequim reconstruído, deve encontrar os pontos correspondentes mais próximo em cada uma das nuvens verificar a proximidade entre esses pontos. Para a execução desta tarefa utilizar-se-á a seguinte nomenclatura. di — coordenadas das distâncias dos pontos da nuvem em CAD; dj = coordenadas das distâncias dos pontos da nuvem em Matlab;[190] From the coordinates obtained from the standard crankshaft point cloud (CAD) and the reconstructed crankshaft point cloud, you should find the nearest corresponding points in each of the clouds to check the proximity between these points. To perform this task the following nomenclature will be used. di - coordinates of cloud point distances in CAD; dj = coordinates of cloud point distances in Matlab;

[191] A partir do modelo em CAD e da sua respectiva reconstrução, obtém-se duas nuvens de pontos, sendo que para um o vértice tem-se as respectivas coordenadas no modelo em CAD.[191] From the CAD model and its respective reconstruction, two point clouds are obtained, and for one the vertex has the respective coordinates in the CAD model.

Pdi = [ 1093,87 -1440,69 732] [192] Da mesma forma, obtem-se as coordenadas do mesmo ponto a partir da nuvem de pontos obtida na reconstrução em Matlab.Pdi = [1093,87 -1440,69 732] [192] Similarly, the coordinates of the same point are obtained from the point cloud obtained from the Matlab reconstruction.

Pdj = [ 1093,4040 -1423,6970 722,833 ] [193] A partir das coordenadas dos pontos obtidos no modelo em CAD e das coordenadas dos pontos obtidos no Matlab, mostradas acima, é necessário efetuar o cálculo da distância entre o ponto e a origem do sistema Pw \XW,YW,ZW], tanto no' modelo em CAD como do modelo em Matlab.Pdj = [1093,4040 -1423,6970 722,833] [193] From the coordinates of the points obtained in the CAD model and the coordinates of the points obtained in Matlab, shown above, it is necessary to calculate the distance between the point and the system origin Pw \ XW, YW, ZW], both in the CAD model and the Matlab model.

[194] Para calcular o módulo do vetor posição do modelo em CAD utilizar-se-á a equação 21.[194] To calculate the modulus of the model position vector in CAD, equation 21 will be used.

[195] Da mesma forma para calcular o módulo do vetor posição do modelo em Matlab utilizar-se-á a equação 4.22.[195] Similarly to calculate the modulus of the position vector of the model in Matlab, equation 4.22 will be used.

[196] A fim de efetuar a análise estatística do erro entre as coordenadas do modelo CAD e do modelo em Matlab é necessário obter-se a distância entre os pontos dt e dj no espaço, ou seja, calcular o desvio vetorial da localização no espaço. Desta forma, para calcular o desvio vetorial, utilizar-se-á a equação 23: [197] Sendo: dij = distância entre o ponto do modelo em CAD e do modelo em Matlab;[196] In order to perform statistical error analysis between the CAD model and Matlab model coordinates, the distance between the points dt and dj in space must be obtained, ie the vectorial deviation of the location in space must be calculated. . Thus, to calculate the vector deviation, equation 23 will be used: [197] Where: dij = distance between the point of the CAD model and the Matlab model;

Xi = coordenada em X do ponto no modelo em CAD;Xi = X coordinate of the point in the CAD model;

Xj = coordenada em X do ponto no modelo em Matlab;Xj = X coordinate of the point in the Matlab model;

Yi = coordenada em Y do ponto no modelo em CAD;Yi = Y coordinate of the point in the CAD model;

Yj = coordenada em Y do ponto no modelo em Matlab; = coordenada em Z do ponto no modelo em CAD;Yj = Y coordinate of the point in the Matlab model; = Z coordinate of the point in the CAD model;

Zj = coordenada em Z do ponto no modelo em Matlab;Zj = Z coordinate of the point in the Matlab model;

[198]Aplicando-se a equação para o exemplo, tem-se o seguinte resultado. = (1093,87 - 1093,40 )2 + (-1440,69 -1423,69 )2 + ( 732 - 722,833)2 [ 199] Efetuando-se o cálculo tem-se o seguinte resultado: d^ = 19,31(mm) [200] O resultado obtido da equação 23 é o erro, desta forma, todos os pontos em comum entre o modelo CAD e o modelo em Matlab podem ter um erro que pode ser calculado. Desta forma pode-se obter o erro médio do sistema de medição.[198] Applying the equation for the example gives the following result. = (1093.87 - 1093.40) 2 + (-1440.69 -142.69) 2 + (732 - 722.833) 2 [199] Performing the calculation gives the following result: d ^ = 19, 31 (mm) [200] The result obtained from equation 23 is the error, so all points in common between the CAD model and the Matlab model can have an error that can be calculated. In this way the average measurement system error can be obtained.

[201] Onde: d = erro médio; dij = erro; n = número de pontos em comum calculados;[201] Where: d = mean error; dij = error; n = number of common points calculated;

[202] Para a análise do erro entre a posição dos pontos do modelo em CAD (d,·) e o modelo em Matlab (dj) em relação ao sistema de referência PAXw.Y«,.z„] é necessário efetuar o cálculo do erro relativo, que é dado a partir da equação 25: [203] O erro relativo pode ser dado em porcentagem, desta forma a equação 4.26 mostra o erro em porcentagem: [204] Aplicando-se a equação 26 para o cálculo do erro relativo no ponto dado como exemplo tem-se: [205] Efetuando-se o cálculo, o valor do erro relativo para o ponto dado com exemplo, tem-se: 5rel = 0,99 % [206] A partir do erro em cada ponto é possível calcular o erro médio, utilizando-se a equação 27: [207] Onde: ô_rel = erro relativo médio; õrel = erro relativo; n = número de pontos;[202] For the analysis of the error between the position of the CAD model points (d, ·) and the Matlab model (dj) with respect to the PAXw.Y «, z„] reference system, the calculation must be performed. relative error, which is given from equation 25: [203] Relative error can be given as a percentage, so equation 4.26 shows the error as a percentage: [204] Applying equation 26 for error calculation Relative to the given point as an example we have: [205] When calculating, the relative error value for the given point with an example is: 5rel = 0.99% [206] From the error in each point you can calculate the mean error using equation 27: [207] Where: ô_rel = mean relative error; rel = relative error; n = number of points;

[208] Com os dados do erro relativo em todos os pontos comparados é possível construir gráficos com as seguintes características: erro relativo em cada ponto, erro máximo, erro mínimo e erro médio.[208] With the relative error data at all points compared, it is possible to construct graphs with the following characteristics: relative error at each point, maximum error, minimum error and mean error.

[209] Além dos gráficos com as características já citadas, pode-se também estabelecer o índice de correlação entre as coordenadas CAD (real) e as coordenadas calculadas provenientes do Matlab, esse índice de correlação é calculado pela equação 28: [210] Além do coeficiente de correlação, mostrado na equação 28 deve-se plotar o gráfico de correlação com as coordenadas dt e dj.[209] In addition to the graphs with the aforementioned characteristics, you can also establish the correlation index between CAD (real) coordinates and calculated coordinates from Matlab, this correlation index is calculated by equation 28: [210] From the correlation coefficient, shown in equation 28, plot the correlation graph with the coordinates dt and dj.

[211] A partir do gráfico de correlação entre as coordenadas reais (CAD) e as reconstruídas (Matlab), uma característica importante que deve ser utilizada para análise é a inclinação .da reta resultante no gráfico de correlação, a equação 29 mostra a função para estimar dj a partir de dL. dj = α + bdt (29) [212] Sendo o parâmetro α dado pela equação 30: [213]Sendo α o coeficiente angular da reta calculado a partir da equação acima 29, o valor de b é calculado a partir da equação 30, como mostrado abaixo: b = dj — adl (31) Exemplo 10 - Modelo Matemático para Análise de Dispersão do Erro : [214] Com resultado do erro e do erro relativo obtido é necessário apresentar os dados de tal forma que seja possível analisar qual a tendência dos dados em se manterem em torno do valor central, ou seja, em torno do erro médio.[211] From the correlation (CAD) and reconstructed (Matlab) correlation graph, an important feature that should be used for analysis is the slope of the straight line resulting from the correlation graph, equation 29 shows the function to estimate dj from dL. dj = α + bdt (29) [212] Since the parameter α is given by equation 30: [213] Since α is the angular coefficient of the straight line calculated from the above equation 29, the value of b is calculated from equation 30, b = dj - adl (31) Example 10 - Mathematical Model for Error Scattering Analysis: [214] With the result of the error and the relative error obtained it is necessary to present the data in such a way that it is possible to analyze the tendency of the data to remain around the central value, ie around the mean error.

[215] A partir desta necessidade, neste tópico apresentar-se-á a maneira como os dados serão agrupados para análise da tendência a partir da construção de uma curva normal e sua posterior análise.[215] From this need, this topic will present how the data will be grouped for trend analysis from the construction of a normal curve and its subsequent analysis.

[216] Para a análise da frequência a partir da distribuição normal, é necessário utilizar o valor do erro médio, conforme mostrado na equação 27: [217] Após o cálculo da média é necessário calcular o desvio padrão, desta forma pode-se reescrever a mesma equação aplicada ao erro, conforme mostra a equação 432.[216] To analyze the frequency from the normal distribution, you need to use the mean error value as shown in equation 27: [217] After averaging you need to calculate the standard deviation so you can rewrite the same equation applied to the error as shown by equation 432.

Onde : S = desvio padrão do erro; 5_rcl = erro relativo médio; õrei = erro relativo; n = número de pontos;Where: S = standard deviation of error; 5_rcl = mean relative error; õrei = relative error; n = number of points;

[218] Com o desvio padrão, deve-se efetuar a distribuição de frequências, de tal forma a contabilizar o número de ocorrências do erro em cada classe, levando em consideração o valor do erro médio como base e utilizando o desvio padrão como intervalo de classe.[218] With standard deviation, frequency distribution should be performed in such a way as to account for the number of error occurrences in each class, taking into account the mean error value as a basis and using standard deviation as the interval. class.

[219]Para melhor organização esses dados devem ser organizados em uma tabela e desta forma é possível plotar o histograma de frequência do erro relativo, a Figura 9 mostra um exemplo do histograma de frequências.[219] For better organization this data should be arranged in a table and so it is possible to plot the relative error frequency histogram, Figure 9 shows an example of the frequency histogram.

REIVINDICAÇÕES

Claims (20)

1 - Dispositivo (1) para medição dimensional de peças caracterizado por compreender uma base (2) para a sustentação da peça; pelos meios de aquisição de imagem (3) para a inspeção dimensional da peça.Device (1) for dimensional measurement of parts comprising a base (2) for supporting the part; by the image acquisition means (3) for dimensional inspection of the part. 2 - Dispositivo, de acordo com a reivindicação 1, caracterizado pelo fato de a base (2) compreender uma mesa (2.1); um berço (2.2) e um amortecedor (2.3); a mesa (2.1) servir como apoio para o sistema de aquisição de imagens (3) e para a peça a ser inspecionada; o berço (2.2) servir para o assentamento da peça e para a manter imobilizada; e o amortecedor (2.3) servir para mitigar a vibração.Device according to Claim 1, characterized in that the base (2) comprises a table (2.1); a cradle (2.2) and a shock absorber (2.3); the table (2.1) serves as support for the image acquisition system (3) and for the part to be inspected; the cradle (2.2) serves to settle the piece and to keep it immobilized; and the damper (2.3) serves to mitigate vibration. 3 - Dispositivo, de acordo com a reivindicação 1, caracterizado pelo fato de os meios de captação de imagem (3) compreenderem um conjunto de 4 a 8 câmeras (3.1) que apresentam uma translação e rotação entre si; e, um conjunto de 4 a 8 luzes (3.2); que viabilizam que a peça seja integralmente visualizada tendo imagens adjacentes com pontos de sobreposição entre si.Device according to claim 1, characterized in that the image capture means (3) comprise a set of 4 to 8 cameras (3.1) which have a translation and rotation with each other; and a set of 4 to 8 lights (3.2); that enable the piece to be fully visualized by having adjacent images with overlapping points between them. 4 - Dispositivo, de acordo com a reivindicação 3, caracterizado pelo fato de os meios de captação de imagem (3) compreenderem um conjunto de 6 câmeras (3.1); e, o conjunto de 6 de luzes (3.2).Device according to claim 3, characterized in that the image capture means (3) comprise a set of 6 cameras (3.1); and the set of 6 lights (3.2). 5 - Sistema (4) de análise e inspeção de peças, caracterizado por compreender um dispositivo (1) para medição dimensional de peças; meios de integração (MSI); e meios de segurança (IS) que integrados em rede com o sistema de controle de produção da fábrica viabilizam a coleta e o processamento dos dados para a análise e inspeção dimensional, geométrica e o alinhamento de peças.5 - Part analysis and inspection system (4), characterized in that it comprises a device (1) for dimensional measurement of parts; means of integration (MSI); and safety features (IS) that integrated with the plant's production control system enable data collection and processing for dimensional, geometric analysis and inspection and part alignment. 6 - Sistema de acordo com a reivindicação 5, caracterizado pelo fato de o dispositivo (1) para medição dimensional de peças ser tal como reivindicado nas reivindicações 1 a 4 .System according to Claim 5, characterized in that the device (1) for dimensionally measuring parts is as claimed in claims 1 to 4. 7 - Sistema de acordo com a reivindicação 5, caracterizado pelo fato de os meios de integração (MSI) promoverem a comunicação entre um robô da linha de produção (1R1), o dispositivo (1), os meios de segurança (IS), e uma fonte de alimentação (Al) sendo compreendido por uma placa de aquisição de dados (5.1); e um computador (5.2) ligado a uma base de dados (5.2).System according to claim 5, characterized in that the integration means (MSI) provides communication between a production line robot (1R1), the device (1), the security means (IS), and a power supply (Al) comprising a data acquisition board (5.1); and a computer (5.2) connected to a database (5.2). 8 - Sistema de acordo com a reivindicação 5, caracterizado pelo fato de a placa de aquisição de dados (5.1) ser uma placa NI USB; e uma placa Ethenet ligar a placa (5.1) ao computador (5.2).System according to claim 5, characterized in that the data acquisition board (5.1) is a USB NI card; and an Ethenet card connecting the card (5.1) to the computer (5.2). 9 - Sistema de acordo com a reivindicação 5, caracterizado pelo fato de meios de integração (MSI) com o dispositivo (1) ocorrer por intermédio do quadro de comando (Cl) que se conecta às interfaces 1/0 que ligam e desligam os meios de captação de imagem (3) compreendidos pelo conjunto de 4 a 8 câmeras (3.1) e pelo conjunto de 4 a 8 luzes (3.2).System according to Claim 5, characterized in that the means for integrating (MSI) with the device (1) occurs via the control board (Cl) which connects to the interfaces 1/0 which switch the means on and off. (3) comprised of the set of 4 to 8 cameras (3.1) and the set of 4 to 8 lights (3.2). 10 - Método de controle dimensional através de imagem computacional e geométrica de peças caracterizado por compreender as etapas de: (a) Inicialização; (b) Aquisição e processamento da imagem; (c) Construção de uma imagem 3D da peça; (d) Análise da peça; (e) Remoção da peça analisada; e, (f)Repouso.10 - Method of dimensional control through computational and geometric image of parts characterized by comprising the steps of: (a) Initialization; (b) image acquisition and processing; (c) Construction of a 3D image of the part; (d) analysis of the part; (e) removal of the analyzed part; and, (f) Rest. 11 - Método de acordo com a reivindicação 10, caracterizado pelo fato de a etapa de inicialização compreender verificação os itens do sistema de segurança que são monitorados pelo relé de segurança, além de estabelecer todas as variáveis necessárias para a inicialização do sistema.Method according to claim 10, characterized in that the initialization step comprises verification of the safety system items that are monitored by the safety relay, in addition to establishing all the variables necessary for the system initialization. 12 - Método de acordo com a reivindicação 10, caracterizado pelo fato de um robô integrante de uma linha de montagem, pegar a peça automotiva e a colocar sobre o berço (2.2) da mesa (2.1); e então retornar para uma posição de repouso onde ficará aguardando até a conclusão do processo; em seguida, o sistema zerar as variáveis necessárias para a aquisição, processamento e análise, e envia o sinal para os meios de captação de imagem (3) iniciar a etapa (b) .Method according to claim 10, characterized in that an assembly line robot picks up the automotive part and places it on the cradle (2.2) of the table (2.1); and then return to a rest position where you will be waiting until the process is completed; The system then clears the variables necessary for acquisition, processing and analysis, and sends the signal to the imaging means (3) to initiate step (b). 13 - Método de acordo com a reivindicação 10, caracterizado pelo fato de na etapa (b) os meios de captação de imagem (3) serem calibrados e, em seguida capturarem entre 12 a 20 imagens por câmera do conjunto de 4 a 8 câmeras (3.1) de modo que a peça seja integralmente visualizada e que imagens adjacentes tenham pontos de sobreposição entre si.Method according to claim 10, characterized in that in step (b) the image capture means (3) are calibrated and then capture between 12 to 20 images per camera of the set of 4 to 8 cameras ( 3.1) so that the piece is fully visualized and adjacent images have overlapping points with each other. 14 - Método de acordo com a reivindicação 13, caracterizado pelo fato de o conjunto de 4 a 8 de luzes (3.2) emitirem um foco de luz corrige os problemas na iluminação incidente sobre a peça viabilizando uma captura de imagens adequada; e as câmeras adquirirem as imagens e as enviarem ao computador.A method according to claim 13, characterized in that the set of 4 to 8 lights (3.2) emit a spotlight corrects the problems in incident lighting on the part by enabling proper image capture; and the cameras acquire the images and send them to the computer. 15 - Método de acordo com a reivindicação 10, caracterizado pelo fato de o processamento ocorrer após o carregamento das imagens no computador para a obtenção de pontos homólogos dos pares de imagens e, ocorrer pela execução de um algoritmo de calibração e softwares de p r o c e s s ame n t o.Method according to claim 10, characterized in that the processing takes place after the images are loaded on the computer to obtain homologous points of the image pairs and, by the execution of a calibration algorithm and processing software. The. 16 - Método de acordo com a reivindicação 10, caracterizado pelo fato de na etapa (c) ser construída uma imagem 3D a peça com o uso de um software pertencente ao estado da técnica.Method according to claim 10, characterized in that in step (c) a 3D piece-by-piece image is constructed using state of the art software. 17 - Método de acordo com a reivindicação 10, caracterizado pelo fato de na etapa de análise, a imagem 3D ser inspecionada e os dados relativos à precisão das dimensões da peça como um todo, bem como, de cada um de suas secções serem obtidos; os dados serem comparados com os dados de uma peça padrão armazenados no sistema, por comparação estatística.A method according to claim 10, characterized in that in the analysis step the 3D image is inspected and the data relating to the accuracy of the dimensions of the part as a whole as well as of each of its sections are obtained; the data is compared to the standard part data stored in the system by statistical comparison. 18 - Método de acordo com a reivindicação 10, caracterizado pelo fato de na etapa (e) o robô retirar do berço (2.2) a peça analisada e o carrega para um transportador aéreo de acordo com o resultado da análise.Method according to Claim 10, characterized in that in step (e) the robot removes the analyzed part from the cradle (2.2) and loads it into an air carrier according to the result of the analysis. 19 - Uso do um sistema de análise de imagens para a medição dimensional de peças conforme descrito nas reivindicações de 5 a 9 caracterizado por ter aplicação no controle das características geométricas de peças e que demandem elevada precisão em suas medidas .Use of an image analysis system for dimensional measurement of parts as described in claims 5 to 9 characterized in that it has application in the control of the geometrical characteristics of parts and which demand high precision in their measurements. 20 - Uso de um sistema de análise de imagens para a medição dimensional de peças conforme descrito nas reivindicações de 5 a 9 caracterizado por ser para o controle de qualidade.Use of an image analysis system for dimensional measurement of parts as described in claims 5 to 9 characterized for being for quality control.
BR102014009460-1A 2014-04-16 2014-04-16 DEVICE FOR DIMENSIONAL MEASUREMENT OF PARTS; PARTS ANALYSIS AND INSPECTION SYSTEM; AUTOMATED DIMENSIONAL CONTROL METHOD; AND USES BR102014009460B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR102014009460-1A BR102014009460B1 (en) 2014-04-16 2014-04-16 DEVICE FOR DIMENSIONAL MEASUREMENT OF PARTS; PARTS ANALYSIS AND INSPECTION SYSTEM; AUTOMATED DIMENSIONAL CONTROL METHOD; AND USES

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BR102014009460-1A BR102014009460B1 (en) 2014-04-16 2014-04-16 DEVICE FOR DIMENSIONAL MEASUREMENT OF PARTS; PARTS ANALYSIS AND INSPECTION SYSTEM; AUTOMATED DIMENSIONAL CONTROL METHOD; AND USES

Publications (2)

Publication Number Publication Date
BR102014009460A2 true BR102014009460A2 (en) 2016-05-03
BR102014009460B1 BR102014009460B1 (en) 2021-11-16

Family

ID=55854440

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102014009460-1A BR102014009460B1 (en) 2014-04-16 2014-04-16 DEVICE FOR DIMENSIONAL MEASUREMENT OF PARTS; PARTS ANALYSIS AND INSPECTION SYSTEM; AUTOMATED DIMENSIONAL CONTROL METHOD; AND USES

Country Status (1)

Country Link
BR (1) BR102014009460B1 (en)

Also Published As

Publication number Publication date
BR102014009460B1 (en) 2021-11-16

Similar Documents

Publication Publication Date Title
JP6525459B2 (en) System and method for improved scoring and false point removal of 3D poses in 3D image data
US8126260B2 (en) System and method for locating a three-dimensional object using machine vision
Basso et al. Robust intrinsic and extrinsic calibration of RGB-D cameras
US20150269723A1 (en) Stereo vision measurement system and method
Gai et al. A novel dual-camera calibration method for 3D optical measurement
WO2007044629A2 (en) Methods and apparatus for practical 3d vision system
JP2011107990A (en) Calibration device
US10197394B2 (en) Method and system for analyzing spatial measuring data
Malti et al. Hand–eye and radial distortion calibration for rigid endoscopes
CN110910506B (en) Three-dimensional reconstruction method and device based on normal detection, detection device and system
JP2012242281A (en) Method, device and program for calculating center position of detection object
KR20190050819A (en) A method for performing calibration using measured data without an assumed calibration model and a three-dimensional scanner calibration system
Barone et al. Structured light stereo catadioptric scanner based on a spherical mirror
Yang et al. A method for measuring the thermal geometric parameters of large hot rectangular forgings based on projection feature lines
Beauvisage et al. Low cost and low power multispectral thermal-visible calibration
BR102014009460A2 (en) device for dimensional measurement of parts; parts analysis and inspection system; automated dimensional control method; and uses
Zheng et al. Positioning sensor by combining photogrammetry, optical projection and a virtual camera model
Ma et al. A multi-scale methodology of turbine blade surface recovery based on photometric stereo through fast calibrations
Lyngby et al. Using a robotic arm for measuring BRDFs
Deng et al. An illumination-invariant phase-shifting algorithm for three-dimensional profilometry
Grudziński et al. Application of 3D scanning techniques for large-scale objects manufactured on CNC welding machine
Murillo et al. Robot and landmark localization using scene planes and the 1d trifocal tensor
WO2021019111A1 (en) Method for inspecting paintwork defects of a vehicle and inspection tunnel
Berriozabal Progress in industrial photogrammetry by means of markerless solutions
Chiang et al. Stereo vision for the measurement of turning tool size

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06V Preliminary requirement: patent application procedure suspended [chapter 6.22 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 16/04/2014, OBSERVADAS AS CONDICOES LEGAIS.