BR102018011661A2 - method and system for mobile thermographic inspection of energy distribution networks - Google Patents

method and system for mobile thermographic inspection of energy distribution networks Download PDF

Info

Publication number
BR102018011661A2
BR102018011661A2 BR102018011661A BR102018011661A BR102018011661A2 BR 102018011661 A2 BR102018011661 A2 BR 102018011661A2 BR 102018011661 A BR102018011661 A BR 102018011661A BR 102018011661 A BR102018011661 A BR 102018011661A BR 102018011661 A2 BR102018011661 A2 BR 102018011661A2
Authority
BR
Brazil
Prior art keywords
thermal
image
optical
cameras
images
Prior art date
Application number
BR102018011661A
Other languages
Portuguese (pt)
Inventor
Alejandro Dueñas Rodriguez Abel
Gará Caetano Diogo
Carrara Eduardo
Fambrini Francisco
Alexis Canahuire Cabello Frank
Mazoni Guilherme
Marcelo Bonturi Von Zuben João
Arthur Rangel
Ferrarezi Rosivaldo
Yano Yuzo
Original Assignee
Rio Grande Energia S A
Univ Estadual Campinas Unicamp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rio Grande Energia S A, Univ Estadual Campinas Unicamp filed Critical Rio Grande Energia S A
Priority to BR102018011661A priority Critical patent/BR102018011661A2/en
Priority to PCT/BR2019/050214 priority patent/WO2019232607A1/en
Publication of BR102018011661A2 publication Critical patent/BR102018011661A2/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Radiation Pyrometers (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

a presente invenção se refere a um método para gerar relatórios de diagnóstico preventivos de falhas em elementos da rede de distribuição de energia elétrica utilizando imagens termográficas e ópticas obtidas a partir de câmeras posicionadas sobre um veículo, as imagens termográficas (ct) e ópticas (co) sendo capturadas simultaneamente por meio de robô que realiza o posicionamento das câmeras.the present invention relates to a method for generating preventive diagnostic reports of failures in elements of the electricity distribution network using thermographic and optical images obtained from cameras positioned on a vehicle, thermographic (ct) and optical images (co ) being captured simultaneously by means of a robot that performs the positioning of the cameras.

Description

MÉTODO E SISTEMA PARA INSPEÇÃO TERMOGRÁFICA MÓVEL DE REDES DE DISTRIBUIÇÃO DE ENERGIA”METHOD AND SYSTEM FOR MOBILE THERMOGRAPHIC INSPECTION OF ENERGY DISTRIBUTION NETWORKS ”

Campo da Invenção [0001] A presente invenção se refere a um método e sistema para gerar relatórios de diagnóstico preventivos de falhas em elementos da rede de distribuição de energia elétrica utilizando imagens termográficas e ópticas obtidas a partir de câmeras posicionadas sobre um veículo, as imagens termográficas e ópticas sendo capturadas simultaneamente por meio de robô que realiza o posicionamento das câmeras. Antecedentes da Invenção [0002] Com o desenvolvimento tecnológico na área eletrônica, as câmeras ópticas e termográficas disponíveis no mercado proporcionam imagens com resoluções cada vez melhores. A obtenção de tais imagens pode destinar-se a uma vasta gama de aplicações, dentre as quais o monitoramento de equipamentos e componentes elétricos durante seu funcionamento.Field of Invention [0001] The present invention refers to a method and system for generating preventive diagnostic reports of failures in elements of the electricity distribution network using thermographic and optical images obtained from cameras positioned on a vehicle, the images thermographic and optical images being captured simultaneously by means of a robot that performs the positioning of the cameras. Background of the Invention [0002] With technological development in the electronic area, the optical and thermographic cameras available on the market provide images with increasingly better resolutions. Obtaining such images can be used for a wide range of applications, including the monitoring of equipment and electrical components during operation.

[0003] Diferentes tecnologias são atualmente empregadas na tentativa de monitorar de forma eficiente os elementos elétricos com possíveis defeitos. Tais elementos podem apresentar sobreaquecimento, necessitando de manutenção, troca ou remanejamento de carga na rede.[0003] Different technologies are currently employed in an attempt to efficiently monitor electrical elements with possible defects. Such elements may present overheating, requiring maintenance, exchange or load shifting in the network.

[0004] O documento de patente n° US 2017/0150069 A1, publicado em 25 de maio de 2017, sob o título: THERMAL IMAGING BASED MONITORING SYSTEM”, em nome de SEEK THERMAL, INC, se refere a um sistema para monitoramento de qualquer campo de visão usando sensores matriciais de radiação infravermelha. Após a aquisição, a imagem térmica é[0004] Patent document No. US 2017/0150069 A1, published on May 25, 2017, under the title: THERMAL IMAGING BASED MONITORING SYSTEM ”, on behalf of SEEK THERMAL, INC, refers to a system for monitoring any field of view using matrix infrared radiation sensors. After acquisition, the thermal image is

Petição 870180049151, de 08/06/2018, pág. 18/52Petition 870180049151, of 06/08/2018, p. 18/52

2/23 segmentada em duas ou mais regiões, identificando a temperatura dessas regiões a partir das informações fornecidas pelo fabricante da câmera e gerando um alerta em caso de temperatura acima de uma referência. De forma distinta, a presente invenção utiliza câmeras ópticas e térmicas para um sistema inteligente que identifica elementos com funcionamento irregular em diferentes pontos da rede de distribuição de energia elétrica. O método da presente invenção não utiliza a separação de regiões e análise de temperatura dessas regiões. Adicionalmente, o sistema do documento US 2017/0150069 A1 não trata de um sistema móvel. O documento US 2017/0150069 A1 descreve um sistema de monitoramento de imagens termográficas baseado em redes com várias câmeras alimentadas com baterias. Neste sistema descrito no documento US 2017/0150069 A1, uma rede de transmissão sem fio (WiFi) transmite as imagens captadas pelas câmeras termográficas até um computador remoto. O documento US 2017/0150069 A1 descreve o sistema pelo qual as baterias irão controlar as câmeras e se refere a um método visando economizar energia das baterias e aumentar a vida útil das mesmas, de modo a ampliar os períodos entre eventuais recargas. O método da presente invenção não tem por objetivo economizar a energia das baterias que alimentam câmeras termográficas, não utiliza rede de transmissão de imagens termográficas sem fios. O método da presente invenção não possui Algoritmo que visa economizar energia de baterias; não é um sistema de monitoramento que transmite imagens por radiofrequência para um computador remoto. O método da presente invenção compreende a captura de imagens2/23 segmented into two or more regions, identifying the temperature of these regions from the information provided by the camera manufacturer and generating an alert in case of temperature above a reference. In a different way, the present invention uses optical and thermal cameras for an intelligent system that identifies elements with irregular functioning in different points of the electricity distribution network. The method of the present invention does not use region separation and temperature analysis of those regions. In addition, the system in US 2017/0150069 A1 does not deal with a mobile system. US 2017/0150069 A1 describes a thermographic image monitoring system based on networks with multiple cameras powered by batteries. In this system described in US 2017/0150069 A1, a wireless transmission network (WiFi) transmits the images captured by thermographic cameras to a remote computer. US 2017/0150069 A1 describes the system by which the batteries will control the cameras and refers to a method to save energy from the batteries and increase the life of the batteries, in order to extend the periods between possible recharges. The method of the present invention does not aim to save the energy of the batteries that power thermographic cameras, it does not use a wireless network for transmitting thermographic images. The method of the present invention does not have an algorithm that aims to save battery power; it is not a monitoring system that transmits radio frequency images to a remote computer. The method of the present invention comprises capturing images

Petição 870180049151, de 08/06/2018, pág. 19/52Petition 870180049151, of 06/08/2018, p. 19/52

3/23 termográficas e imagens ópticas a partir de quatro câmeras térmicas e quatro câmeras ópticas, as quais ficam instaladas no teto superior de um veículo automóvel. Estas imagens são transmitidas através de fios (cabos elétricos) para um computador no interior do veículo automóvel. Este computador no interior do veículo faz a extração de características das imagens coloridas padrão RGB, extrai as características das imagens pelo método Gradient Descent Minimization, classifica as imagens pelo método Convolution Neural Network, compara com um vetor de características proveniente de um banco de imagens (que são vetores numéricos), identifica os elementos da rede elétrica para os quais o sistema foi previamente treinado e produz automaticamente um relatório que traz as fotos ópticas e termográficas de todos os elementos fotografados, evidenciando pontos de aquecimento (hot spots) em elementos da rede que necessitem de manutenção. Todas estas informações constam no relatório gerado automaticamente pelo método da presente invenção. Nenhuma dessas características faz parte da descrição contida no documento US 2017/0150069 A1.3/23 thermographic and optical images from four thermal cameras and four optical cameras, which are installed on the upper roof of a motor vehicle. These images are transmitted via wires (electrical cables) to a computer inside the vehicle. This computer inside the vehicle extracts characteristics from the standard RGB color images, extracts the characteristics from the images by the Gradient Descent Minimization method, classifies the images by the Convolution Neural Network method, compares it with a vector of characteristics from a stock image ( which are numeric vectors), identifies the elements of the electrical network for which the system was previously trained and automatically produces a report that brings the optical and thermographic photos of all the elements photographed, showing heating points (hot spots) in network elements requiring maintenance. All of this information is contained in the report automatically generated by the method of the present invention. None of these features is part of the description contained in US 2017/0150069 A1.

[0005] O documento CN 104809722 A, publicado em 29 de julho de 2015, sob o título: “ELECTRICAL DEVICE FAULT DIAGNOSIS METHOD BASeD ON INFRARED THERMOGRAPHY”, em nome de STATE GRID CORP CHINA; SHANDONG ELEC POWER RES INST, se refere a um método de análise de imagens térmicas baseado em limiarização Otsu, extração de características (momento Zernike) e treinamento por redes neurais. O documento CN 104809722 A descreve um método de diagnóstico de falhas em[0005] CN 104809722 A, published on July 29, 2015, under the title: “ELECTRICAL DEVICE FAULT DIAGNOSIS METHOD BASeD ON INFRARED THERMOGRAPHY”, on behalf of STATE GRID CORP CHINA; SHANDONG ELEC POWER RES INST, refers to a method of analyzing thermal images based on Otsu thresholding, feature extraction (Zernike moment) and training by neural networks. CN 104809722 A describes a method of diagnosing faults in

Petição 870180049151, de 08/06/2018, pág. 20/52Petition 870180049151, of 06/08/2018, p. 20/52

4/23 elementos da rede elétrica baseado em termografia infravermelha, onde as imagens de termografia infravermelha são submetidas a processamento em níveis de cinza e segmentadas por meio do método de limiarização de OTSU. Os parâmetros característicos das imagens de termografia infravermelha segmentadas são extraídos para servir como parâmetros de entrada de uma rede neural do tipo BackPropagation (abreviada por BP) e a rede neural BP é treinada com imagens extraídas. O diagnóstico de defeito térmico é realizado no dispositivo elétrico por meio da rede neural BP treinada e um resultado de diagnóstico é gerado. No método da presente invenção são analisadas ambas as imagens de um mesmo elemento: a imagem termográfica e também a imagem óptica no padrão RGB (sem transformar em escalas de cinza). No método da presente invenção, são analisadas imagens em cores (padrão RGB) pelo computador, ao contrário do sistema proposto pelo documento CN 104809722 A, que trabalha com as imagens em escalas de cinza. No sistema descrito no documento CN 104809722 A as características das imagens em escala de cinza são extraídas através do método de Momentos de Zernicke. Em uma concretização da presente invenção, as características das imagens coloridas são extraídas através do método de Minimização do Gradiente Descendente (Gradient Descent Minimization - GDM) que faz parte da técnica de identificação de imagens conhecida na literatura como Deep Learning (Aprendizagem Profunda). No sistema descrito pelo documento CN 104809722 A, a classificação das imagens é efetuada a partir de uma Rede Neural Backpropagation (BP) e a classificação das imagens de4/23 elements of the electrical network based on infrared thermography, where infrared thermography images are subjected to gray level processing and segmented using the OTSU threshold method. The characteristic parameters of the segmented infrared thermography images are extracted to serve as input parameters of a BackPropagation type neural network (abbreviated by BP) and the BP neural network is trained with extracted images. The diagnosis of thermal defect is performed on the electrical device through the trained BP neural network and a diagnostic result is generated. In the method of the present invention, both images of the same element are analyzed: the thermographic image and also the optical image in the RGB standard (without transforming into gray scales). In the method of the present invention, images in color (RGB standard) are analyzed by the computer, unlike the system proposed by the document CN 104809722 A, which works with the images in gray scales. In the system described in document CN 104809722 A, the characteristics of the grayscale images are extracted using the Zernicke Moments method. In one embodiment of the present invention, the characteristics of color images are extracted using the Gradient Descending Minimization (GDM) method, which is part of the image identification technique known in the literature as Deep Learning. In the system described by document CN 104809722 A, the classification of images is made from a Neural Backpropagation Network (BP) and the classification of images from

Petição 870180049151, de 08/06/2018, pág. 21/52Petition 870180049151, of 06/08/2018, p. 21/52

5/23 acordo com o método da presente invenção é efetuada através de uma Rede Neural Convolucional (CNN = Convolution Neural Network).5/23 according to the method of the present invention is carried out through a Convolutional Neural Network (CNN = Convolution Neural Network).

[0006] O artigo disponibilizado através do link www.mfap.com.br/pesquisa/arquivos/20081126150533-174.pdf, sob o título: ROBÔ PARA MONITORAMENTO DE PONTOS QUENTES POR MEIO DE CÂMERAS INFRAVERMELHO EM SUBESTAÇÕES DE ENERGIA ELÉTRICA”, em nome de M. V. Garbelotti et al (documento não datado) da companhia TBE - Transmissoras Brasileiras de Energia, trata do uso de um robô para monitorar subestações de energia elétrica usando uma câmera de infravermelho. O robô é controlado remotamente (não tem inteligência para se posicionar), tendo uma contagem de pulsos como guia. As imagens são analisadas apenas para a identificação de temperaturas acima de um limite pré-fixado. Diferentemente da presente invenção, o sistema de Garbelotti et al é muito limitado, não é feito nenhum processamento para identificação de elementos, não são utilizadas câmeras ópticas, não são gerados relatórios. No método da presente invenção, a câmera é dinamicamente apontada para os objetos de interesse através de um Algoritmo de Reconhecimento de Imagens baseado na técnica conhecida na literatura como Deep Learning: os elementos são reconhecidos através de sua forma por meio de uma rede neural convolucional. No sistema descrito no documento de Garbelotti et al toda a estrutura é comandada por um programa residente em um PC localizado a uma distância de aproximadamente 1km do robô. No método da presente invenção, o comando de todo o sistema se encontra no interior do próprio veículo automóvel, a uma distância de[0006] The article made available through the link www.mfap.com.br/pesquisa/arquivos/20081126150533-174.pdf, under the title: ROBOT FOR MONITORING HOT POINTS THROUGH INFRARED CAMERAS IN ELECTRIC ENERGY SUBSTATIONS ”, in The name of MV Garbelotti et al (undated document) of the company TBE - Transmissoras Brasileiras de Energia, deals with the use of a robot to monitor electricity substations using an infrared camera. The robot is controlled remotely (does not have the intelligence to position itself), having a pulse count as a guide. The images are analyzed only to identify temperatures above a pre-set limit. Unlike the present invention, the system by Garbelotti et al is very limited, no processing is done to identify elements, optical cameras are not used, reports are not generated. In the method of the present invention, the camera is dynamically aimed at the objects of interest through an Image Recognition Algorithm based on the technique known in the literature as Deep Learning: the elements are recognized through their shape through a convolutional neural network. In the system described in the document by Garbelotti et al, the entire structure is controlled by a program residing on a PC located at a distance of approximately 1km from the robot. In the method of the present invention, the control of the entire system is located inside the vehicle itself, at a distance of

Petição 870180049151, de 08/06/2018, pág. 22/52Petition 870180049151, of 06/08/2018, p. 22/52

6/23 poucos metros da câmera, o que confere maior imunidade a interferência eletromagnética em relação ao sistema descrito no artigo de Garbelotti et al.6/23 a few meters from the camera, which gives greater immunity to electromagnetic interference in relation to the system described in the article by Garbelotti et al.

[0007] A patente n° US 7,989,769 B2, concedida em 02 de agosto de 2011, sob o título: “IN-CABINET THERMAL MONOTORING METHOD AND SYSTEM”, em nome de ROCKWELL AUTOMATION TECHNOLOGIES, INC, descreve um sistema para monitoramento de quadros de energia, com sensores de baixo custo e com identificação de um único conjunto de elementos. Um sistema mecânico no quadro permite a varredura dos elementos do quadro (varredura estática). De forma muito diferente, o método da presente invenção utiliza um sistema inteligente que identifica elementos em diferentes pontos da rede de distribuição.[0007] US Patent No. 7,989,769 B2, issued on August 2, 2011, under the title: “IN-CABINET THERMAL MONOTORING METHOD AND SYSTEM”, on behalf of ROCKWELL AUTOMATION TECHNOLOGIES, INC, describes a system for monitoring frames of energy, with low cost sensors and with the identification of a single set of elements. A mechanical system in the frame allows scanning of the elements of the frame (static scanning). Very differently, the method of the present invention uses an intelligent system that identifies elements at different points in the distribution network.

[0008] Portanto, nota-se a necessidade de um método para monitoramento de pontos quentes que seja capaz de capturar, de forma móvel, imagens ópticas e térmicas a serem processadas de forma a identificar por meio de algoritmos de reconhecimento de padrões os componentes elétricos presentes no poste e gerar relatórios sobre os componentes identificados.[0008] Therefore, there is a need for a method for monitoring hot spots that is capable of capturing, in a mobile way, optical and thermal images to be processed in order to identify electrical components using pattern recognition algorithms. present on the pole and generate reports on the identified components.

Sumário da Invenção [0009] O método para monitoramento de pontos quentes da presente invenção é capaz de reconhecer os tipos de elementos elétricos com e sem sobreaquecimento ao longo das linhas de distribuição aérea. A identificação dos elementos é realizada durante o deslocamento de um veículo terrestre equipado com um arranjo de câmeras ópticas e termográficas e controladas por um robô. O sistema possui uma série deSummary of the Invention [0009] The hot spot monitoring method of the present invention is capable of recognizing the types of electrical elements with and without overheating along overhead distribution lines. The identification of the elements is performed during the displacement of a land vehicle equipped with an array of optical and thermographic cameras and controlled by a robot. The system has a series of

Petição 870180049151, de 08/06/2018, pág. 23/52Petition 870180049151, of 06/08/2018, p. 23/52

7/23 algoritmos, entre eles: software para controle de Pan-tilt, software para controle de disparo e controle das câmeras por computador, software de rastreamento de Postes, software para combinação de imagens de elementos capturados por diferentes câmeras, software de reconhecimento de padrões que utiliza redes neurais (Deep Learning), software para interface com mapas e software para geração de relatórios. A presente invenção ainda apresenta um sistema de amortecimento específico para compensação de vibração.7/23 algorithms, among them: software for Pan-tilt control, software for shooting control and control of cameras by computer, Post tracking software, software for combining images of elements captured by different cameras, software for recognition of standards that use neural networks (Deep Learning), software to interface with maps and software for generating reports. The present invention also features a specific damping system for vibration compensation.

[0010] Dentre as funcionalidades proporcionadas pelo método de inspeção termográfica da presente invenção, destacam-se:[0010] Among the functionalities provided by the thermographic inspection method of the present invention, the following stand out:

[1] Captura de imagens de elementos elétricos ao longo da linha de distribuição aérea de energia sem a presença ou intervenção de instrumentista ou termografista durante o percurso.[1] Capture images of electrical elements along the aerial power distribution line without the presence or intervention of an instrumentalist or thermographer during the route.

[2] Realizar a etapa [1] com o veículo terrestre em movimento;[2] Carry out step [1] with the land vehicle in motion;

[3] Processamento das imagens para reconhecimento de padrões de elementos elétricos.[3] Image processing for pattern recognition of electrical elements.

[4] Processamento das imagens para identificar os elementos com sobreaquecimento;[4] Image processing to identify elements with overheating;

[5] Combinação de imagens de diversas câmeras para geração de um único relatório por elemento com imagens em diferentes ângulos.[5] Combining images from several cameras to generate a single report per element with images at different angles.

[6] Combinação de imagens termográficas e ópticas para processamento;[6] Combination of thermographic and optical images for processing;

[7] Capacidade de captura e reconhecimento de elementos elétricos simultaneamente em dois lados da via;[7] Ability to capture and recognize electrical elements simultaneously on two sides of the track;

Petição 870180049151, de 08/06/2018, pág. 24/52Petition 870180049151, of 06/08/2018, p. 24/52

8/23 [8] Capacidade de identificação de variação de largura de via através de uso de uma câmera com visão frontal, processamento de imagens e software de controle de pan-tílt para posicionamento correto das câmeras traseiras a partir das informações da câmera frontal.8/23 [8] Ability to identify track width variation through the use of a front view camera, image processing and pan-tilt control software for correct positioning of the rear cameras from the front camera information.

[9] Capacidade de geração de biblioteca de imagens de novos elementos para retroalimentação de rede neural.[9] Ability to generate an image library of new elements for neural network feedback.

[10] Capacidade de compensação de medidas de temperatura e comparação da medida com histórico de temperaturas de elementos elétricos geolocalizados armazenadas em banco de dados, com o objetivo de recomendação de ação preventiva.[10] Ability to compensate for temperature measurements and compare the measurement with temperature history of geolocalized electrical elements stored in a database, with the objective of recommending preventive action.

[0011] O método da presente invenção então faz a combinação dos itens 1 a 10 com o objetivo de gerar relatórios de inspeção termográfica sem a necessidade de intervenção de instrumentistas e sem a necessidade de parada do veículo.[0011] The method of the present invention then combines items 1 to 10 in order to generate reports of thermographic inspection without the need for intervention by instrumentalists and without the need to stop the vehicle.

[0012] Tais objetivos e vantagens são alcançados através de um método para inspeção termográfica móvel de redes de distribuição de energia que compreende as etapas de:[0012] Such objectives and advantages are achieved through a method for mobile thermographic inspection of energy distribution networks that comprises the steps of:

ajustar, automaticamente e remotamente, a posição das câmeras ópticas e térmicas a partir de um meio para ajustar, automaticamente e remotamente, a posição das câmeras ópticas e térmicas nos sentidos vertical e rotacional (ou eixos) acionado a partir de uma largura da via obtida através de uma câmera frontal;automatically and remotely adjust the position of the optical and thermal cameras from a medium to automatically and remotely adjust the position of the optical and thermal cameras in the vertical and rotational directions (or axes) triggered from a width of the obtained track through a front camera;

capturar, com o veículo em movimento, uma pluralidade de imagens ópticas e uma pluralidade de imagens térmicas acapture, with the vehicle in motion, a plurality of optical images and a plurality of thermal images to be

Petição 870180049151, de 08/06/2018, pág. 25/52Petition 870180049151, of 06/08/2018, p. 25/52

9/23 partir de pares de câmeras ópticas e câmeras térmicas dispostos em uma base de suporte sobre um veiculo;9/23 starting from pairs of optical cameras and thermal cameras arranged on a support base on a vehicle;

calcular, em tempo real, a compensação de temperatura a partir de uma base de dados com valores nominais de corrente dos elementos elétricos detectados em cada ponto em função de medições de velocidade do vento e temperatura ambiente;calculate, in real time, the temperature compensation from a database with nominal current values of the electrical elements detected at each point as a function of wind speed and ambient temperature measurements;

realizar o reconhecimento de padrões de postes utilizando uma Deep Learning com adição de uma camada de imagem térmica e executar o seguimento KCF (Kernelized Correlation Filter) para o poste de maior área;perform pole pattern recognition using Deep Learning with the addition of a thermal image layer and perform KCF (Kernelized Correlation Filter) tracking for the post with the largest area;

realizar o pré-processamento de imagens ópticas e térmicas;perform the pre-processing of optical and thermal images;

localizar pontos de interesse através uma rede Deep Learning e seleção de imagens associadas a uma etiqueta definida;locate points of interest through a Deep Learning network and select images associated with a defined label;

relatar se determinada região ou elemento do poste apresenta sobreaquecimento de acordo com o seu respectivo limiar de sobreaquecimento.report whether a particular region or element of the pole is overheating according to its respective overheating threshold.

Breve Descrição das Figuras [0013] Os objetivos e vantagens da presente invenção se tornarão mais claros através da descrição detalhada a seguir de uma concretização preferida, mas não limitativa da invenção, tendo em vista as figuras anexas, em que:Brief Description of the Figures [0013] The objectives and advantages of the present invention will become clearer through the following detailed description of a preferred, but not limiting embodiment of the invention, in view of the attached figures, in which:

[0014] A figura 1 ilustra um arranjo de câmeras ópticas e térmicas instaladas em pares sobre o teto de um veiculo;[0014] Figure 1 illustrates an arrangement of optical and thermal cameras installed in pairs on the roof of a vehicle;

[0015] A figura 2 ilustra um exemplo de medição da distância entre as sarjetas através da transformada de Hough;[0015] Figure 2 illustrates an example of measuring the distance between gutters through the Hough transform;

Petição 870180049151, de 08/06/2018, pág. 26/52Petition 870180049151, of 06/08/2018, p. 26/52

10/23 [0016] A figura 3 ilustra o procedimento para conversão da imagem no formato Bayer para o formato RGB;10/23 [0016] Figure 3 illustrates the procedure for converting the image in the Bayer format to the RGB format;

[0017] A figura 4 ilustra a detecção de elementos contidos no poste usando o algoritmo YOLO modificado;[0017] Figure 4 illustrates the detection of elements contained in the pole using the modified YOLO algorithm;

[0018] A figura 5 ilustra um exemplo de Arquitetura tradicional das Redes Neurais Convolucionais. Os primeiros estágios são compostos de camadas de convolução e pooling e as últimas camadas são completamente conexas;[0018] Figure 5 illustrates an example of traditional Architecture of Convolutional Neural Networks. The first stages are composed of layers of convolution and pooling and the last layers are completely connected;

[0019] A figura 6 ilustra uma aplicação de max pooling em uma imagem 4x4 utilizando um filtro 2x2;[0019] Figure 6 illustrates an application of max pooling in a 4x4 image using a 2x2 filter;

[0020] A figura 7 apresenta uma rede convolucional para a imagem RGB+T;[0020] Figure 7 shows a convolutional network for the RGB + T image;

[0021] A figura 8 apresenta uma detecção do poste usando o algoritmo YOLO modificado;[0021] Figure 8 shows a pole detection using the modified YOLO algorithm;

[0022] A figura 9 representa uma imagem de um poste elétrico obtido pela câmera ótica, resolução da imagem é 1024 x 643 (reescalonado de 1936 x 1216);[0022] Figure 9 represents an image of an electric pole obtained by the optical camera, image resolution is 1024 x 643 (rescheduled from 1936 x 1216);

[0023] A figura 10 ilustra uma imagem de um poste elétrico usando a câmera térmica;[0023] Figure 10 illustrates an image of an electric pole using the thermal camera;

[0024] A figura 11 ilustra uma imagem térmica convertida para o a escala da imagem ótica, agora com resolução 1024 x 643 (antes era de 640 x 480);[0024] Figure 11 illustrates a thermal image converted to the scale of the optical image, now with 1024 x 643 resolution (before it was 640 x 480);

[0025] A figura 12 ilustra uma imagem térmica reescalonada superposta na imagem ótica;[0025] Figure 12 illustrates a rescheduled thermal image superimposed on the optical image;

[0026] A figura 13 ilustra uma Diferença de Gaussiano da imagem óptica;[0026] Figure 13 illustrates a Gaussian Difference of the optical image;

[0027] A figura 14 ilustra uma Diferença de Gaussiano da imagem térmica;[0027] Figure 14 illustrates a Gaussian Difference of the thermal image;

Petição 870180049151, de 08/06/2018, pág. 27/52Petition 870180049151, of 06/08/2018, p. 27/52

11/23 [0028] A figura 15 ilustra Bordas da imagem térmica usando a matriz de projeção inicial;11/23 [0028] Figure 15 illustrates the edges of the thermal image using the initial projection matrix;

[0029] A figura 16 ilustra a superposição da projeção da imagem térmica com a imagem ótica;[0029] Figure 16 illustrates the superposition of the projection of the thermal image with the optical image;

[0030] A figura 17 ilustra uma distância entre o centro do poste e o centro da imagem óptica;[0030] Figure 17 illustrates a distance between the center of the pole and the center of the optical image;

[0031] A figura 18 apresenta um fluxograma das etapas de rastreamento (tracking) do pan-tilt.[0031] Figure 18 shows a flowchart of the pan-tilt tracking steps.

Descrição Detalhada da InvençãoDetailed Description of the Invention

Câmeras ópticas e térmicas [0032] Conforme mostrado na figura 1, o sistema de câmeras consiste em uma câmera frontal (CF) e de 4 pares de câmeras ópticas (CO) e térmicas (CT) os quais são: frontal direito (FD), frontal esquerdo (FE), traseira direita (TD) e traseira esquerda (TE).Optical and thermal cameras [0032] As shown in figure 1, the camera system consists of a front camera (CF) and 4 pairs of optical (CO) and thermal (CT) cameras which are: right front (FD), front left (FE), right rear (TD) and left rear (TE).

[0033] De acordo com uma concretização, as câmeras ópticas CO realizam a gravação das imagens em formato Bayer com um valor fixo de 2,4 MBytes por imagem com uma resolução de 1936 x 1216 pixels.[0033] According to one embodiment, optical CO cameras record images in Bayer format with a fixed value of 2.4 MBytes per image with a resolution of 1936 x 1216 pixels.

[0034] Contudo, é evidente para uma pessoa versada na técnica, o uso de outros formatos e resoluções.[0034] However, it is evident for a person versed in the technique, the use of other formats and resolutions.

Base de Suporte para as Câmeras Ópticas e Térmicas [0035] Uma base mecânica é fornecida para permitir a fixação de arranjos de câmeras ópticas CO e térmicas CT, juntamente com denominados pan-tilts, que são equipamentos que permitem imunidade a irregularidades do terreno e também o controle de posicionamento das câmeras nos sentidos vertical e rotacional. Estão listados a seguir os objetivos atingidos da base:Support Base for Optical and Thermal Cameras [0035] A mechanical base is provided to allow the fixation of CO optical and CT thermal camera arrangements, together with so-called pan-tilts, which are equipment that allow immunity to terrain irregularities and also the positioning control of the cameras in the vertical and rotational directions. The objectives achieved by the base are listed below:

Petição 870180049151, de 08/06/2018, pág. 28/52Petition 870180049151, of 06/08/2018, p. 28/52

12/2312/23

- Projeto de uma base mecânica flexível que possibilita arranjos de câmeras ópticas CO e térmicas CT durante o projeto sem a necessidade de re-fabricação;- Design of a flexible mechanical base that allows arrangements for CO optical and CT thermal cameras during the project without the need for re-fabrication;

- Obtenção de uma base com peso reduzido;- Obtaining a base with reduced weight;

- Base com amortecimento evitando a vibração em excesso das câmeras;- Base with damping preventing excessive vibration of the cameras;

- Suportar a instalação de Pan-tilts;- Support the installation of Pan-tilts;

- Possibilidade do controle do movimento de todas as câmeras por Software;- Possibility of controlling the movement of all cameras by software;

- Possibilidade que algoritmos inteligentes assumam o controle das câmeras e possibilite a redução do número de câmeras; e- Possibility that intelligent algorithms take control of the cameras and make it possible to reduce the number of cameras; and

- Possibilidade de arranjo com um número menor de câmeras.- Possibility of arrangement with a smaller number of cameras.

Compensação Automática de Altura do Sistema Pan-Tilt [0036] Todas as câmeras deste sistema de aquisição de imagens, tanto as ópticas quanto as térmicas, são controladas por um sistema de posicionamento do tipo Pantilt. Trata-se de um sistema mecânico-robótico com 2 graus de liberdade que permite movimentar via software as câmeras nas direções vertical e horizontal.Automatic Height Compensation of the Pan-Tilt System [0036] All cameras in this image acquisition system, both optical and thermal, are controlled by a Pantilt positioning system. It is a mechanical-robotic system with 2 degrees of freedom that allows the cameras to move in vertical and horizontal directions via software.

[0037] O movimento de Pan é definido em 360 graus no plano horizontal em relação ao solo, e o movimento de Tilt é definido como sendo o movimento de 180 graus no plano vertical, ortogonal ao plano do movimento Pan. À medida que as ruas se tornam mais estreitas, existe a necessidade de se elevar a altura das câmeras para que as áreas de interesse, onde se localizam os elementos da rede elétrica, continuem sendo fotografadas adequadamente.[0037] Pan's movement is defined in 360 degrees in the horizontal plane in relation to the ground, and the Tilt movement is defined as being 180 degrees in the vertical plane, orthogonal to the plane of the Pan movement. As the streets become narrower, there is a need to increase the height of the cameras so that the areas of interest, where the elements of the power grid are located, continue to be photographed properly.

Petição 870180049151, de 08/06/2018, pág. 29/52Petition 870180049151, of 06/08/2018, p. 29/52

13/23 [0038] Uma câmera frontal é então utilizada para se medir a largura das ruas, de forma a se mensurar o estreitamento ou alargamento da via para se corrigir automaticamente a posição dos motores dos sistemas PanTilts. O princípio do algoritmo proposto é aplicar a Transformada de Hough para medir a distância (fixando-se 2 pontos fixos na imagem) entre as sarjetas das guias das ruas, conforme mostrado na Figura 2. As bordas (guias) das ruas são segmentos de retas.13/23 [0038] A front camera is then used to measure the width of the streets, in order to measure the narrowing or widening of the road to automatically correct the position of the engines of the PanTilts systems. The principle of the proposed algorithm is to apply the Hough Transform to measure the distance (fixing 2 fixed points on the image) between the gutters of the street guides, as shown in Figure 2. The edges (guides) of the streets are straight segments .

[0039] Ao medir uma nova distância entre as guias da estrada, o sistema automaticamente corrige a posição de Tilt, mudando a altura das câmeras em função da maior ou menor proximidade do veículo que captura as imagens em relação aos postes.[0039] When measuring a new distance between the road guides, the system automatically corrects the Tilt position, changing the height of the cameras according to the greater or lesser proximity of the vehicle that captures the images in relation to the posts.

[0040] O script a seguir é então aplicado com a finalidade de obter a largura da via.[0040] The following script is then applied in order to obtain the width of the road.

1. 1. Leitura da Reading the imagem da câmera frontal do veículo; image of the vehicle's front camera; 2. 2. Binarização da imagem capturada Binarization of the captured image usando metade using half da gives faixa de range intensidade intensity máxima da imagem; maximum image; 3. 3. Aplicação Application do filtro de Sobel, of the Sobel filter, de forma a in order to se if destacar highlight as regiões the regions de contorno da imagem; contour of the image; 4. 4. Aplicação Application da Transformada de of the Hough na imagem Hough in the picture

resultante da etapa de aplicação do filtro de Sobel.resulting from the Sobel filter application step.

5. Aplicação da Transformada de Distância usando as linhas principais obtidas da etapa anterior.5. Application of the Distance Transform using the main lines obtained from the previous step.

6. As variações das medidas temporais da etapa 5 serão fornecidas para o controle do Pan-tilt.6. Variations in time measurements from step 5 will be provided for Pan-tilt control.

Compensação de temperatura a partir de condições ambientaisTemperature compensation from environmental conditions

Petição 870180049151, de 08/06/2018, pág. 30/52Petition 870180049151, of 06/08/2018, p. 30/52

14/23 [0041] Antes da etapa de aplicação do reconhecimento de padrões é necessário realizar a correção de temperatura, de acordo com GED 3485, em função do vento e do carregamento da linha. Para isso, é necessária uma base de dados contendo os valores nominais de corrente de trabalho dos elementos de cada ponto. A medida de velocidade do vento e a temperatura ambiente, no momento da medida, deverão ser obtidas em tempo real.14/23 [0041] Before the pattern recognition application step, temperature correction must be carried out, according to GED 3485, depending on the wind and the line loading. For this, it is necessary a database containing the nominal values of the working current of the elements of each point. The measurement of wind speed and ambient temperature, at the time of measurement, must be obtained in real time.

[0042] Inicialmente calcula-se a elevação de temperatura atual, que é a diferença entre a temperatura em que se encontra o material e a temperatura ambiente:[0042] Initially, the current temperature rise is calculated, which is the difference between the temperature the material is in and the room temperature:

Ati = Tmat - Tamb (1)Ati = Tmat - Tamb (1)

Onde:Where:

At1 é a elevação de temperatura medida com o carregamento atualAt 1 is the temperature rise measured with the current load

Tmat é a temperatura do ponto de medida (material)T mat is the temperature of the measurement point (material)

Tamb é a temperatura ambiente no momento em que foi feita a inspeção.It is also the ambient temperature at the time the inspection was made.

[0043] A elevação de temperatura devido ao carregamento pode ser calculada por:[0043] The temperature rise due to loading can be calculated by:

Át2 = Ati /Carregamento^2 i 100% \2 (Carregamentoi) = ^ti'(carregamento%i) = Ati.FCC (2) [0044] Para a velocidade do ar, a correção é:Át2 = Ati / Loading ^ 2 i 100% \ 2 (Loadingi) = ^ ti '(loading% i) = Ati.FCC (2) [0044] For air speed, the correction is:

At2 = Ati·At2 = Ati ·

VelocidadenSpeed

Velocidade2/Speed2 /

0,448 = .FCVA (3)0.448 = .FCVA (3)

Onde:Where:

Velocidade1 é a velocidade do ar no momento da mediçãoSpeed1 is the airspeed at the time of measurement

Velocidade2 é a velocidade do ar para a qual se deseja achar a elevação da temperatura, normalmente para velocidade do ar de 1 m/s.Speed 2 is the air speed for which you want to find the temperature rise, usually for an air speed of 1 m / s.

Petição 870180049151, de 08/06/2018, pág. 31/52Petition 870180049151, of 06/08/2018, p. 31/52

15/23 [0045] Uma vez obtida a variação de temperatura corrigida, ações exemplares em cada nível de temperatura que deverão ser utilizadas são ilustradas na Tabela 1 a seguir:15/23 [0045] Once the corrected temperature variation is obtained, exemplary actions at each temperature level that should be used are illustrated in Table 1 below:

Prioridade Priority Faixa de temperatura comparada com componentes simulares nas mesmas condições (°C) Temperature range compared to simulated components under the same conditions (° C) Diferença quando comparada com temperatura ambiente (°C) Difference when compared to room temperature (° C) Ação Recomendada Action Recommended 4 4 1-3 1-3 1-10 1-10 Possível deficiência, pesquisar ocorrência Possible disability, search for occurrence 3 3 4-15 4-15 11-20 11-20 Indica incapacidade, reparação quando o tempo permitir Indicates disability, repair when time permits 2 2 21-40 21-40 Monitorar até que medidas corretivas possam ser realizadas Monitor to what extent corrective measures can be carried out 1 1 >15 > 15 >40 > 40 Grande discrepância; Reparo imediato Large discrepancy; Immediate repair

TABELA 1TABLE 1

1. Identificação de pontos quentes1. Hot spot identification

1.1 - Pré-processamento1.1 - Pre-processing

Petição 870180049151, de 08/06/2018, pág. 32/52Petition 870180049151, of 06/08/2018, p. 32/52

16/23 [0046] Conforme ilustrado na figura 3, é realizada uma conversão de um formato Bayer para RGB, de acordo com uma concretização da presente invenção. Uma imagem em formato Bayer é dividida em sub-imagens 4x4 e, a partir desta, é calculado um pixel em formato RGB.16/23 [0046] As illustrated in figure 3, a conversion from a Bayer format to RGB is carried out, in accordance with an embodiment of the present invention. An image in Bayer format is divided into 4x4 sub-images and, from this, a pixel in RGB format is calculated.

[0047] Adicionalmente é realizado um reescalonamento da imagem para 1024x643 pixels mantendo o formato da imagem original e também será realizada uma compressão em JPG para diminuir o espaço de armazenamento. Com esta conversão a imagem terá um tamanho médio de 135,31 KBytes (18 vezes menor que da imagem original).[0047] Additionally, the image is rescheduled to 1024x643 pixels, keeping the original image format, and a JPG compression will also be performed to reduce the storage space. With this conversion, the image will have an average size of 135.31 KBytes (18 times smaller than the original image).

[0048] Uma vez que as câmeras traseiras recebam a informação sobre a posição do poste, será acionado o algoritmo de seguimento do poste (apenas para a imagem óptica) para o controle do Pan-tilt e serão extraídas as regiões de interesse ao redor do poste que será a entrada ao novo algoritmo de aprendizagem profunda. Porém, nesse caso, são identificados os elementos que pertencem ao poste, como por exemplo chaves faca, chaves fusíveis, transformador, etc.[0048] Once the rear cameras receive information about the position of the pole, the pole tracking algorithm (for the optical image only) will be activated for Pan-tilt control and the regions of interest around the pole will be extracted. post that will be the entrance to the new deep learning algorithm. However, in this case, the elements that belong to the pole are identified, such as knife keys, fuse keys, transformer, etc.

[0049] Na Figura 4 é mostrado um exemplo de detecção dos elementos contidos no poste usando o algoritmo YOLO modificado. Este procedimento é mais preciso que quando aplicado na imagem inteira, assim a imagem do poste é reescalonada para uma resolução de 448 x 448, para que seja a entrada do algoritmo da rede convolucional.[0049] Figure 4 shows an example of detecting the elements contained in the pole using the modified YOLO algorithm. This procedure is more accurate than when applied to the entire image, so the image of the pole is rescheduled to a resolution of 448 x 448, so that it is the input of the convolutional network algorithm.

1.2 - Detecção de pontos quentes [0050] A identificação de pontos quentes é baseada em dois tipos de imagens: térmicas e ópticas. As imagens1.2 - Hot spot detection [0050] The hot spot identification is based on two types of images: thermal and optical. The images

Petição 870180049151, de 08/06/2018, pág. 33/52Petition 870180049151, of 06/08/2018, p. 33/52

17/23 térmicas são constituídas de pseudocores e são acompanhadas de dados fornecidos pelo fabricante de equipamento, que relevam uma estimativa de temperatura dos objetos presentes. A imagem óptica é obtida a partir de uma câmera convencional, não possui informações adicionais, mas permite uma quantidade maior de pixels quando comparada à imagem térmica.17/23 thermal units are made up of pseudo-colors and are accompanied by data provided by the equipment manufacturer, which reveal an estimate of the temperature of the objects present. The optical image is obtained from a conventional camera, has no additional information, but allows a larger amount of pixels when compared to the thermal image.

1.2.1. Localização dos pontos de interesse [0051] A fase inicial consiste em encontrar uma imagem que possui os objetos de interesse: postes e elementos de rede. A premissa é classificar uma imagem obtendo as características dela. Para isto, primeiro é necessário detectar as características locais para logo agrupá-las em uma representação global dentro da imagem. Finalmente treinar um classificador para poder associar uma etiqueta à imagem. Assim, se desejamos classificar uma nova imagem, este classificador saberá que etiqueta deverá ser relacionada.1.2.1. Location of points of interest [0051] The initial phase consists of finding an image that has the objects of interest: posts and network elements. The premise is to classify an image by obtaining its characteristics. For this, it is first necessary to detect local characteristics and then group them into a global representation within the image. Finally, train a classifier to be able to associate a label to the image. So, if we want to classify a new image, this classifier will know which tag should be related.

[0052] A detecção de postes será realizada utilizando um Rede Neuronal Convolucional, também chamada de aprendizagem profunda ou Deep Learning. Atualmente uma típica arquitetura de uma Rede Neuronal Convolucional é dividida em uma série de estágios. Os primeiros estágios são compostos de dois tipos de camadas, as camadas de convolução e as camadas de pooling, como mostrado na Figura 5. A camada de convolução consiste em mapas de atributos, conectados a cada unidade da camada anterior através de um conjunto de parâmetros compartilhados entre todas as unidades e possui ReLUs (Rectified Linear Units), neurônios com função de ativação definida como a não-linearidade na forma descrita[0052] The detection of posts will be carried out using a Convolutional Neuronal Network, also called deep learning or Deep Learning. Currently, a typical architecture of a Convolutional Neuronal Network is divided into a series of stages. The first stages are composed of two types of layers, the convolution layers and the pooling layers, as shown in Figure 5. The convolution layer consists of attribute maps, connected to each unit of the previous layer through a set of parameters shared among all units and has ReLUs (Rectified Linear Units), neurons with activation function defined as non-linearity in the form described

Petição 870180049151, de 08/06/2018, pág. 34/52Petition 870180049151, of 06/08/2018, p. 34/52

18/23 na seguinte equação aplicados na saída de cada camada convolucional:18/23 in the following equation applied to the output of each convolutional layer:

f(x) = max(0,x) (4) [0053] As camadas de pooling são uma forma de downsampling. Uma típica camada de pooling computa o máximo local de uma determinada região do mapa de atributos, como pode ser visto na Figura 6. Elas são úteis por eliminar valores não máximos, reduzindo a dimensão da representação dos dados e consequentemente a computação necessária para as próximas camadas, além de criar uma invariância a pequenas mudanças e distorções locais. Dois ou três estágios de convolução, não-linearidade e pooling são empilhados, seguidos por mais camadas de convolução e camadas completamente conectadas. As camadas convolucionais e de pooling são diretamente inspiradas por noções clássicas de células simples e células complexas na neurociência visual.f (x) = max (0, x) (4) [0053] Pooling layers are a form of downsampling. A typical pooling layer computes the maximum location of a given region of the attribute map, as can be seen in Figure 6. They are useful for eliminating non-maximum values, reducing the dimension of the data representation and consequently the computation necessary for the next ones. layers, besides creating an invariance to small local changes and distortions. Two or three stages of convolution, nonlinearity and pooling are stacked, followed by more layers of convolution and completely connected layers. The convolutional and pooling layers are directly inspired by classic notions of simple cells and complex cells in visual neuroscience.

[0054] O procedimento realizado com os dois pares de câmeras direitas é o mesmo realizado nos dois pares de câmeras esquerdas, com isso só será explicado para o lado direito. O par de câmeras FD terá a tarefa de realizar a detecção do poste, sendo encarregado de avisar ao par de câmeras traseiras direitas que um poste foi detectado. Para realizar a detecção do poste, será utilizada uma modificação da arquitetura da rede neuronal profunda usada no algoritmo YOLO adicionando a camada de imagem térmica. Para isso, a imagem térmica de resolução 640x480 será reescalonada para 1024x643 e assim construir uma imagem RGB+T com resolução 1024x643 pixels com 4 camadas de cores, conforme ilustrado na Figura 7.[0054] The procedure performed with the two pairs of right cameras is the same performed on the two pairs of left cameras, with this it will only be explained for the right side. The pair of FD cameras will have the task of detecting the pole, being responsible for notifying the pair of right rear cameras that a pole has been detected. To perform the pole detection, a modification of the architecture of the deep neural network used in the YOLO algorithm will be used, adding the thermal image layer. For this, the thermal image with 640x480 resolution will be rescheduled to 1024x643 and thus build an RGB + T image with 1024x643 pixel resolution with 4 color layers, as shown in Figure 7.

[0055] Essa rede realiza um reescalonamento da imagem para uma matriz quadrada de resolução 448 x 448 x 4[0055] This network reschedules the image to a square matrix of 448 x 448 x 4 resolution

Petição 870180049151, de 08/06/2018, pág. 35/52Petition 870180049151, of 06/08/2018, p. 35/52

19/23 e é formada por 24 camadas convolucionais e, no final, por duas camadas completamente conectadas. Esse algoritmo tem um custo computacional elevado, motivo pelo qual será complementado com o algoritmo de seguimento KCF (Kernelized Correlation Filter). Uma vez que um ou vários postes são detectados, será acionado o algoritmo de seguimento para o poste de maior área e o Pan-tilt realizará o seguimento do centro da área do poste. Se para 5 detecções (usando o algoritmo YOLO modificado) em intervalos de 10ms, a região do poste coincidir em pelo menos 90% da área da região com o algoritmo de seguimento KCF, então confirmaremos que o objeto detectado será um poste, informando em seguida ao par de câmeras traseiras direitas, conforme exemplo de detecção na Figura 8.19/23 and is formed by 24 convolutional layers and, in the end, by two completely connected layers. This algorithm has a high computational cost, which is why it will be complemented with the KCF (Kernelized Correlation Filter) tracking algorithm. Once one or more posts are detected, the tracking algorithm for the post with the largest area will be triggered and Pan-tilt will follow the center of the post area. If for 5 detections (using the modified YOLO algorithm) in 10ms intervals, the pole region coincides in at least 90% of the region area with the KCF tracking algorithm, then we will confirm that the detected object will be a pole, informing then to the pair of right rear cameras, according to the detection example in Figure 8.

1.2.2. Segmentação e reconhecimento dos elementos da rede elétrica [0056] Uma vez que as câmeras traseiras recebam a informação sobre a posição do poste, será acionado o algoritmo de seguimento do poste (só para a imagem ótica) para o controle do Pan-tilt e serão extraídas as regiões de interesse ao redor do poste que será a entrada ao novo algoritmo de aprendizagem profunda (idêntica ao mostrado na Figura 8). Porém, nesse caso, serão identificados os elementos que pertencem ao poste como, por exemplo, chaves faca, chaves fusíveis, transformador, etc.1.2.2. Segmentation and recognition of the electrical network elements [0056] Once the rear cameras receive information about the position of the pole, the pole tracking algorithm (for the optical image only) will be activated to control the Pan-tilt and will be extracted the regions of interest around the pole that will be the entrance to the new deep learning algorithm (identical to the one shown in Figure 8). However, in this case, the elements that belong to the pole will be identified, for example, knife keys, fuse keys, transformer, etc.

[0057] Para se identificar a temperatura dos elementos na imagem ótica será necessário calcular a matriz de projeção entre a imagem ótica e a térmica. Na Figura 9 é apresentada a imagem obtida pela câmera ótica Dalsa Genie Nano C1920, esta imagem foi convertida do padrão Bayer desta câmera.[0057] To identify the temperature of the elements in the optical image, it will be necessary to calculate the projection matrix between the optical and the thermal image. In Figure 9 the image obtained by the Dalsa Genie Nano C1920 optical camera is presented, this image was converted from the Bayer standard of this camera.

Petição 870180049151, de 08/06/2018, pág. 36/52Petition 870180049151, of 06/08/2018, p. 36/52

20/23 [0058] Na Figura 10 é mostrada a imagem térmica, que foi convertida dos 16 bits e que usa um espaço de cores para representar as suas temperaturas (usando os 16 bits não é possível visualizar regiões quentes).20/23 [0058] Figure 10 shows the thermal image, which was converted from 16 bits and uses a color space to represent its temperatures (using 16 bits it is not possible to see hot regions).

[0059] Como as câmeras estão fixas no carro (ver Figura 1), a matriz de projeção entre elas é invariante à escala e rotação, desse modo somente serão alterados os seus parâmetros de translação.[0059] As the cameras are fixed to the car (see Figure 1), the projection matrix between them is invariant to scale and rotation, so only their translation parameters will be changed.

[0060] Primeiro usando a matriz de projeção convertemos a imagem térmica no espaço da imagem ótica, como é mostrado em Figura 11.[0060] First using the projection matrix we convert the thermal image into the optical image space, as shown in Figure 11.

[0061] Realizando a superposição das imagens ótica e a projeção da térmica, um exemplo de resultado obtido pode ser visto na Figura 12.[0061] Performing the superposition of the optical images and the projection of the thermal, an example of the result obtained can be seen in Figure 12.

[0062] Para se calcular os parâmetros da matriz de homografia, são calculadas as diferenças de Gaussiano das imagens óptica e térmica para obter as bordas da imagem, conforme Figuras 14 e 15. As diferenças de gaussiano funcionam executando duas desfocagens gaussianas diferentes na imagem, com um raio diferente de desfocagem em cada uma, e subtraindo-as para obter o resultado. Este algoritmo é muito usado em visão artificial e é muito rápido quando comparado com outras técnicas para o mesmo fim, pois usam métodos muito eficientes para fazer desfocagem gaussiana. Os parâmetros mais importantes são os raios de suavização. Este método é o mais adequado para obter as bordas na imagem térmica em comparação aos algoritmos tradicionais Canny ou Sobel. Uma imagem I(x,y) é convertida para L(x,y,o), usando a gaussiana com desvio padrão σ. Esta nova imagem é produzida pela convolução de uma função gaussiana, G(x,y^), com a imagem I(x,y).[0062] To calculate the parameters of the homography matrix, the Gaussian differences of the optical and thermal images are calculated to obtain the edges of the image, as shown in Figures 14 and 15. The Gaussian differences work by performing two different Gaussian blurs in the image, with a different radius of defocus in each one, and subtracting them to obtain the result. This algorithm is widely used in artificial vision and is very fast when compared to other techniques for the same purpose, as they use very efficient methods to make Gaussian blur. The most important parameters are the smoothing radii. This method is the most suitable to obtain the edges in the thermal image in comparison to the traditional Canny or Sobel algorithms. An I (x, y) image is converted to L (x, y, o), using the Gaussian with standard deviation σ. This new image is produced by the convolution of a Gaussian function, G (x, y ^), with the image I (x, y).

Petição 870180049151, de 08/06/2018, pág. 37/52Petition 870180049151, of 06/08/2018, p. 37/52

21/2321/23

L(x,y,o) = G(x,y,o) * I(x,y)L (x, y, o) = G (x, y, o) * I (x, y)

Onde:Where:

G(x,y,o) = /(x2 + y2)/ I ^e'l MG (x, y, o) = / (x 2 + y 2 ) / I ^ e'l M

2πσ2 (5) (6) [0063] A função de diferença de gaussiano é definida como:2πσ 2 (5) (6) [0063] The Gaussian difference function is defined as:

D(x,y^) = L(x,y,l^) - L(x,y^) (7) onde 'k' é a escala da diferença de gaussiana (no espaço de escalas). Para as imagens térmicas será usado (^σ) = (5, 1.6) e para imagens óticas é usado um (^σ) = (6, 1.6).D (x, y ^) = L (x, y, l ^) - L (x, y ^) (7) where 'k' is the scale of the Gaussian difference (in the space of scales). For thermal images, (^ σ) = (5, 1.6) and for optical images, a (^ σ) = (6, 1.6) is used.

[0064] Para se calcular a translação serão convertidas as bordas da imagem térmica usando a matriz de homografia e logo serão modificados os parâmetros de translação numa vizinhança pequena, onde a maior quantidade de pixel do operador lógico and entre as imagens será a translação da matriz.[0064] To calculate the translation, the edges of the thermal image will be converted using the homography matrix and then the translation parameters will be modified in a small neighborhood, where the largest amount of pixel of the logical operator and between the images will be the translation of the matrix .

[0065] Na Figura 15 é mostrado o resultado da projeção das bordas da imagem térmica usando a matriz de projeção inicial, agora terá uma resolução de 1920 x 1200 pixels.[0065] Figure 15 shows the result of the projection of the edges of the thermal image using the initial projection matrix, now it will have a resolution of 1920 x 1200 pixels.

[0066] Na Figura 16 observa-se a conversão da imagem térmica usando a matriz de homografia com os parâmetros de translação modificados superposta com a imagem ótica. Nessa imagem já é possível obter as temperaturas dos elementos.[0066] Figure 16 shows the conversion of the thermal image using the homography matrix with the modified translation parameters superimposed with the optical image. In this image it is already possible to obtain the temperatures of the elements.

1.3 - Controle do Pan-tilt [0067] De acordo com uma concretização exemplar, o controle do Pan-tilt é realizado usando o protocolo PELCO D, que é conformado por 7 bytes, no seguinte formato (valores em hexadecimal):1.3 - Pan-tilt control [0067] According to an exemplary embodiment, the Pan-tilt control is performed using the PELCO D protocol, which is made up of 7 bytes, in the following format (values in hexadecimal):

byte 1: sincronização inicial, FF.byte 1: initial synchronization, FF.

byte 2: endereço da câmera (câmera 1 tem endereço 01).byte 2: camera address (camera 1 has address 01).

Petição 870180049151, de 08/06/2018, pág. 38/52Petition 870180049151, of 06/08/2018, p. 38/52

22/23 byte 3 e 4: comandol e comando2 como descritos abaixo.22/23 byte 3 and 4: commandol and command2 as described below.

byte 5: data 1, velocidade para PAN, variando de 00 parado a 3F - velocidade alta e FF - turbo.byte 5: date 1, speed for PAN, ranging from 00 stopped to 3F - high speed and FF - turbo.

byte 6: data 2, velocidade para TILT, variando de 00 parado a 3F - velocidade alta.byte 6: date 2, speed for TILT, ranging from 00 stopped to 3F - high speed.

byte 7: checksum, soma dos bytes 2 a 6 e depois módulo 100.byte 7: checksum, sum of bytes 2 to 6 and then module 100.

[0068] Os bytes 3 (comandol) e 4 (comando2) codificam os reais controles desejados. Por exemplo, quando comando2 tiver o valor de 0000.0100 binário (ou 04 hexa), a câmera endereçada deve realizar uma operação de PAN à esquerda; se tiver valor 0000.0010 binário, a operação será PAN à direita; se tiver valor 1000.0000, o foco será ajustado para longe.[0068] Bytes 3 (commandol) and 4 (command2) encode the actual desired controls. For example, when command2 has the value of 0000.0100 binary (or 04 hexa), the addressed camera must perform a PAN operation on the left; if it has a value of 0000.0010 binary, the operation will be PAN on the right; if it has a value of 1000.0000, the focus will be adjusted away.

[0069] Usando os algoritmos de detecção e seguimento do poste, obtém-se a posição do centro do poste (Cx, Cy) na imagem óptica, como mostrado na figura 17. É obtida a diferença de pixels com referência ao centro da imagem (Px,Py) e se esses pontos estiverem próximos então não será necessário girar o Pan-tilt. Conforme apresentado na figura 18, no caso dessa diferença ser considerável, será necessário girar o Pan-tilt ao centro da imagem, assim o centro do poste sempre estará próximo ao centro da imagem.A combinação dos dois tipos de imagens permite um refinamento da técnica de reconhecimento, permitindo índices de acurácia maiores que 0,9.[0069] Using the pole detection and tracking algorithms, the position of the center of the pole (C x , C y ) in the optical image is obtained, as shown in figure 17. The difference in pixels is obtained with reference to the center of the image (Px, Py) and if these points are close together then it is not necessary to rotate the Pan-tilt. As shown in figure 18, in case this difference is considerable, it will be necessary to rotate the Pan-tilt to the center of the image, so the center of the pole will always be close to the center of the image. The combination of the two types of images allows a refinement of the technique recognition, allowing accuracy rates greater than 0.9.

1.4 Criação do relatório de inspeção [0070] Com as etapas anteriores é possível saber se a região do elemento contido no poste apresenta sobreaquecimento ou não, sendo que cada elemento tem seu próprio limiar de sobreaquecimento. Assim se, por exemplo,1.4 Creation of the inspection report [0070] With the previous steps it is possible to know if the region of the element contained in the pole has overheating or not, and each element has its own threshold of overheating. So if, for example,

Petição 870180049151, de 08/06/2018, pág. 39/52Petition 870180049151, of 06/08/2018, p. 39/52

23/23 for detectada uma região quente na região retangular da chave faca, é possível identificar se a irregularidade ocorre na parte superior ou inferior do elemento. Esse procedimento é especificado para cada elemento possível encontrado no poste.23/23 a hot region is detected in the rectangular region of the knife wrench, it is possible to identify whether the irregularity occurs in the upper or lower part of the element. This procedure is specified for each possible element found on the pole.

[0071] Para o relatório de inspeção será escolhida uma imagem de boa qualidade e com menor efeito de vibração.[0071] For the inspection report, a good quality image with less vibration effect will be chosen.

[0072] Embora a presente invenção tenha sido descrita em conexão com uma concretização preferencial, deve ser entendido que não se pretende limitar a invenção àquela concretização particular. Ao contrário, pretende-se cobrir todas as alternativas, modificações e equivalentes possíveis dentro do espírito e do escopo da invenção, conforme definido pelas reivindicações em anexo.[0072] Although the present invention has been described in connection with a preferred embodiment, it should be understood that it is not intended to limit the invention to that particular embodiment. On the contrary, it is intended to cover all possible alternatives, modifications and equivalents within the spirit and scope of the invention, as defined by the appended claims.

Claims (9)

1. Método para inspeção termográfica móvel de redes de distribuição de energia caracterizado pelo fato de que compreende as etapas de:1. Method for mobile thermographic inspection of energy distribution networks characterized by the fact that it comprises the steps of: ajustar, automaticamente e remotamente, a posição de pelo menos uma câmera óptica (CO) e pelo menos uma câmera térmica (CT) a partir de um meio para ajustar, automaticamente e remotamente, a posição das câmeras ópticas e térmicas nos sentidos vertical e rotacional (ou eixos) acionado a partir de uma largura (L) da via obtida através de uma câmera frontal (CF);automatically and remotely adjust the position of at least one optical camera (CO) and at least one thermal camera (CT) from a medium to automatically and remotely adjust the position of the optical and thermal cameras in the vertical and rotational directions (or axes) driven from a width (L) of the track obtained through a front camera (CF); capturar, com o veículo em movimento, uma pluralidade de imagens ópticas e uma pluralidade de imagens térmicas a partir de um par de câmera óptica (CO) e câmera térmica (CT);capture, with the vehicle in motion, a plurality of optical images and a plurality of thermal images from a pair of optical camera (CO) and thermal camera (CT); calcular, em tempo real, a compensação de temperatura a partir de uma base de dados com valores nominais de corrente dos elementos elétricos detectados em cada ponto em função de medições de velocidade do vento e temperatura ambiente;calculate, in real time, the temperature compensation from a database with nominal current values of the electrical elements detected at each point as a function of wind speed and ambient temperature measurements; realizar o reconhecimento de padrões de postes utilizando uma rede neural Convolucional com adição de uma camada de imagem térmica e executar o seguimento KCF para o poste de maior área;perform post pattern recognition using a Convolutional neural network with the addition of a thermal image layer and perform the KCF tracking for the post with the largest area; realizar o pré-processamento de imagens ópticas e térmicas;perform the pre-processing of optical and thermal images; localizar pontos de interesse utilizando uma rede neural Convolucional com adição de uma camada de imagem térmica com sincronismo de tipos de imagens estabelecido por um algoritmo de diferenças de Gaussiano;locate points of interest using a Convolutional neural network with the addition of a thermal image layer with synchronism of types of images established by a Gaussian differences algorithm; Petição 870180049151, de 08/06/2018, pág. 41/52Petition 870180049151, of 06/08/2018, p. 41/52 2/3 relatar se determinada região ou elemento do poste apresenta sobreaquecimento de acordo com o seu respectivo limiar de sobreaquecimento.2/3 report if a specific region or element of the pole has overheating according to its respective overheating threshold. 2. Método de acordo com a reivindicação 1, caracterizado pelo fato de que a informação da câmera frontal é uma distância obtida a partir da transformada de Hough de dois pontos fixos na imagem da câmera frontal (CF).2. Method according to claim 1, characterized by the fact that the information from the front camera is a distance obtained from the Hough transform of two fixed points in the image of the front camera (CF). 3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a etapa de realizar o reconhecimento de padrões de postes consiste em aplicar um método de aprendizagem profunda.3. Method, according to claim 1, characterized by the fact that the step of performing pole pattern recognition is to apply a deep learning method. 4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a detecção de elementos da rede de distribuição de energia elétrica é realizada através do método de aprendizagem profunda.4. Method, according to claim 1, characterized by the fact that the detection of elements of the electricity distribution network is performed through the deep learning method. 5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a etapa de pré-processamento consiste em:5. Method, according to claim 1, characterized by the fact that the pre-processing step consists of: converter de um formato Bayer para RGB;convert from a Bayer format to RGB; reescalonar reschedule a imagem mantendo the image keeping o O formato da imagem image format original; e original; and comprimir a compress the imagem Image reescalonada rescheduled em in JPG. JPG. 6. Método, 6. Method, de in acordo com a deal with a The reivindicação 1, claim 1,
caracterizado pelo fato de que a etapa de localizar pontos de interesse compreende identificar elementos tais como Chave Faca, Chave Fusível, Chave a Óleo, Conectores, Alimentadores, Transformadores, Postes, Para-raios.characterized by the fact that the stage of locating points of interest comprises identifying elements such as Knife Switch, Fuse Switch, Oil Switch, Connectors, Feeders, Transformers, Posts, Lightning Rods. Petição 870180049151, de 08/06/2018, pág. 42/52Petition 870180049151, of 06/08/2018, p. 42/52 3/33/3
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a etapa de classificação compreende ainda o uso de classificadores não lineares.7. Method, according to claim 1, characterized by the fact that the classification step also includes the use of non-linear classifiers. 8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o par de câmera óptica (CO) e câmera térmica (CT) é disposto em uma base de suporte fixada em um veículo.8. Method, according to claim 1, characterized by the fact that the pair of optical camera (CO) and thermal camera (CT) is arranged on a support base fixed to a vehicle. 9. Método, de acordo com a reivindicação 8, caracterizado pelo fato de que a etapa de capturar imagens utiliza um veículo tal como um automóvel, drone, robô, entre outros.9. Method, according to claim 8, characterized by the fact that the stage of capturing images uses a vehicle such as an automobile, drone, robot, among others. 10. Sistema para inspeção termográfica móvel de redes de distribuição de energia caracterizado pelo fato de que compreende:10. System for mobile thermographic inspection of energy distribution networks characterized by the fact that it comprises: quatro pares de câmeras formados por câmeras ópticas (CO) e câmeras térmicas (CT) dispostos em uma base de suporte sobre um veículo;four pairs of cameras formed by optical cameras (CO) and thermal cameras (CT) arranged on a support base on a vehicle; uma unidade central de processamento capaz de realizar cálculos e comparações em tempo real de valores medidos pelas câmeras óptica (CO) e térmica (CT);a central processing unit capable of performing calculations and real-time comparisons of values measured by optical (CO) and thermal (CT) cameras; uma base de dados armazenando as definições paramétricas e dados coletados;a database storing parametric definitions and collected data; em que o sistema é adaptado para realizar as etapas do método como definido em qualquer uma das reivindicações 1 a 9.wherein the system is adapted to carry out the steps of the method as defined in any of claims 1 to 9.
BR102018011661A 2018-06-08 2018-06-08 method and system for mobile thermographic inspection of energy distribution networks BR102018011661A2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
BR102018011661A BR102018011661A2 (en) 2018-06-08 2018-06-08 method and system for mobile thermographic inspection of energy distribution networks
PCT/BR2019/050214 WO2019232607A1 (en) 2018-06-08 2019-06-07 Method and system for mobile thermographic inspection of energy distribution networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BR102018011661A BR102018011661A2 (en) 2018-06-08 2018-06-08 method and system for mobile thermographic inspection of energy distribution networks

Publications (1)

Publication Number Publication Date
BR102018011661A2 true BR102018011661A2 (en) 2019-12-24

Family

ID=68769661

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102018011661A BR102018011661A2 (en) 2018-06-08 2018-06-08 method and system for mobile thermographic inspection of energy distribution networks

Country Status (2)

Country Link
BR (1) BR102018011661A2 (en)
WO (1) WO2019232607A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7989769B2 (en) * 2008-08-21 2011-08-02 Rockwell Automation Technologies, Inc. In-cabinet thermal monitoring method and system
CN104809722B (en) * 2015-04-13 2018-09-28 国家电网公司 A kind of fault diagnosis method based on infrared thermal imagery
KR101791305B1 (en) * 2015-08-31 2017-10-30 한국전력공사 Apparatus and method for diagnosing electric power equipment using infrared thermal imaging camera
US20170150069A1 (en) * 2015-11-24 2017-05-25 Seek Thermal, Inc. Thermal imaging based monitoring system

Also Published As

Publication number Publication date
WO2019232607A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
CN106919978B (en) Method for identifying and detecting parts of high-speed rail contact net supporting device
CN110850723B (en) Fault diagnosis and positioning method based on transformer substation inspection robot system
AU2019201977B2 (en) Aerial monitoring system and method for identifying and locating object features
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
CN112734692A (en) Transformer equipment defect identification method and device
CN106226157B (en) Concrete structure member crevices automatic detection device and method
CN107743577B (en) Method and apparatus for detecting vibration information of electric railway vehicle
CN111079600A (en) Pedestrian identification method and system with multiple cameras
CN107798336A (en) A kind of infrared measurement of temperature image component recognition methods
CN111751002A (en) Intelligent charged equipment fault diagnosis method based on infrared thermal imaging
US10991217B2 (en) System and methods for computerized safety and security
CN111160220B (en) Deep learning-based parcel detection method and device and storage medium
JP2019022251A (en) Solar cell diagnosis method and solar cell diagnosis system
JP2017049676A (en) Posture discrimination device and object detection device
Lee et al. Diagnosis of crack damage on structures based on image processing techniques and R-CNN using unmanned aerial vehicle (UAV)
CN109143001A (en) pantograph detection system
Yu et al. A survey on automatic inspections of overhead contact lines by computer vision
CN113688817A (en) Instrument identification method and system for automatic inspection
CN112017173A (en) Power equipment defect detection method based on target detection network and structured positioning
CN112260402B (en) Monitoring method for state of intelligent substation inspection robot based on video monitoring
Skladchykov et al. Application of YOLOX deep learning model for automated object detection on thermograms
BR102018011661A2 (en) method and system for mobile thermographic inspection of energy distribution networks
Zhang et al. DSA-Net: An Attention-Guided Network for Real-Time Defect Detection of Transmission Line Dampers Applied to UAV Inspections
CN115984759A (en) Substation switch state identification method and device, computer equipment and storage medium
CN108520615A (en) A kind of fire identification system and method based on image

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06W Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette]