BR102015011233A2 - AUTOMATIC POSITIONING METHOD AND EQUIPMENT FOR IN SITU PROBE SCANNING AND OPTICAL SPECTROSCOPY - Google Patents

AUTOMATIC POSITIONING METHOD AND EQUIPMENT FOR IN SITU PROBE SCANNING AND OPTICAL SPECTROSCOPY Download PDF

Info

Publication number
BR102015011233A2
BR102015011233A2 BR102015011233-5A BR102015011233A BR102015011233A2 BR 102015011233 A2 BR102015011233 A2 BR 102015011233A2 BR 102015011233 A BR102015011233 A BR 102015011233A BR 102015011233 A2 BR102015011233 A2 BR 102015011233A2
Authority
BR
Brazil
Prior art keywords
probe
images
image
laser point
positioning
Prior art date
Application number
BR102015011233-5A
Other languages
Portuguese (pt)
Other versions
BR102015011233B1 (en
Inventor
Pinto Coelho Amorim Laura
Luiz Silva De Miranda Hudson
Mayke Melo Neto Johnathan
Jório De Vasconcelos Ado
Fernando Etrusco Luiz
Gustavo De Oliveira Lopes Cançado Luiz
Rabelo E Silva Cassiano
Original Assignee
Universidade Federal De Minas Gerais
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidade Federal De Minas Gerais filed Critical Universidade Federal De Minas Gerais
Priority to BR102015011233-5A priority Critical patent/BR102015011233B1/en
Publication of BR102015011233A2 publication Critical patent/BR102015011233A2/en
Publication of BR102015011233B1 publication Critical patent/BR102015011233B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01QSCANNING-PROBE TECHNIQUES OR APPARATUS; APPLICATIONS OF SCANNING-PROBE TECHNIQUES, e.g. SCANNING PROBE MICROSCOPY [SPM]
    • G01Q60/00Particular types of SPM [Scanning Probe Microscopy] or microscopes; Essential components thereof
    • G01Q60/18SNOM [Scanning Near-Field Optical Microscopy] or apparatus therefor, e.g. SNOM probes
    • G01Q60/20Fluorescence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/44Raman spectrometry; Scattering spectrometry ; Fluorescence spectrometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01QSCANNING-PROBE TECHNIQUES OR APPARATUS; APPLICATIONS OF SCANNING-PROBE TECHNIQUES, e.g. SCANNING PROBE MICROSCOPY [SPM]
    • G01Q20/00Monitoring the movement or position of the probe
    • G01Q20/02Monitoring the movement or position of the probe by optical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01QSCANNING-PROBE TECHNIQUES OR APPARATUS; APPLICATIONS OF SCANNING-PROBE TECHNIQUES, e.g. SCANNING PROBE MICROSCOPY [SPM]
    • G01Q60/00Particular types of SPM [Scanning Probe Microscopy] or microscopes; Essential components thereof
    • G01Q60/18SNOM [Scanning Near-Field Optical Microscopy] or apparatus therefor, e.g. SNOM probes
    • G01Q60/22Probes, their manufacture, or their related instrumentation, e.g. holders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/65Raman scattering
    • G01N2021/653Coherent methods [CARS]
    • G01N2021/656Raman microprobe
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01QSCANNING-PROBE TECHNIQUES OR APPARATUS; APPLICATIONS OF SCANNING-PROBE TECHNIQUES, e.g. SCANNING PROBE MICROSCOPY [SPM]
    • G01Q60/00Particular types of SPM [Scanning Probe Microscopy] or microscopes; Essential components thereof

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

o presente pedido de patente descreve um método e um equipamento capazes de posicionar automaticamente uma sonda usada para procedimentos de microscopia de varredura por sonda (do inglês, scanning probe microscopy ou spm), incluindo seu acoplamento com sistemas ópticos, como em microscopia óptica de campo próximo (do inglês scanning near-field optical microscopy ou snom) ou espectroscopia raman por efeito de sonda (do inglês tip enhanced raman spectroscopy ou ters), que exigem que a mesma seja precisamente posicionada e manipulada. o método e equipamento propostos baseiam-se em recursos de visão computacional e de controle de posicionamento em malha fechada utilizando-se a retroalimentação visual. experimentos de spm, snom e ters são úteis em indústrias de manufatura de precisão, microeletrônica e biomédica, dentre outras áreas de ciência e tecnologia em que tal monitmamento resulta em uma melhora de qualidade e confiabilidade dos produtos.The present patent application describes a method and equipment capable of automatically positioning a probe used for scanning probe microscopy or spm procedures, including its coupling with optical systems, such as field optical microscopy. scanning near-field optical microscopy or snom) or probe enhanced raman spectroscopy (ters), which require it to be precisely positioned and manipulated. The proposed method and equipment are based on computational vision and closed-loop positioning control capabilities using visual feedback. spm, snom and ters experiments are useful in precision manufacturing, microelectronics and biomedical industries, among other areas of science and technology where such monitoring results in improved product quality and reliability.

Description

(54) Título: MÉTODO E EQUIPAMENTO DE POSICIONAMENTO AUTOMÁTICO PARA MICROSCOPIA POR VARREDURA DE SONDA E ESPECTROSCOPIA ÓPTICA IN SITU (51) Int. Cl.: G01Q 60/20; G01Q 60/22; G01Q 20/02; G01J 3/44; G01Q 60/00; (...) (52) CPC: G01Q 60/20,G01Q 60/22,G01Q 20/02,G01J 3/44,G01Q 60/00,G01N 2021/656 (73) Titular(es): UNIVERSIDADE FEDERAL DE MINAS GERAIS (72) Inventor(es): LAURA PINTO COELHO AMORIM; HUDSON LUIZ SILVA DE MIRANDA; JOHNATHAN MAYKE MELO NETO; ADO JÓRIO DE VASCONCELOS; LUIZ FERNANDO ETRUSCO; LUIZ GUSTAVO DE OLIVEIRA LOPES CANÇADO; CASSIANO RABELO E SILVA (57) Resumo: O presente pedido de patente descreve um método e um equipamento capazes de posicionar automaticamente uma sonda usada para procedimentos de microscopia de varredura por sonda (do inglês, Scanning Probe Microscopy ou SPM), incluindo seu acoplamento com sistemas ópticos, como em microscopia óptica de campo próximo (do inglês Scanning Near-field Optical Microscopy ou SNOM) ou espectroscopia Raman por efeito de sonda (do inglês Tip Enhanced Raman Spectroscopy ou TERS), que exigem que a mesma seja precisamente posicionada e manipulada. O método e equipamento propostos baseiam-se em recursos de visão computacional e de controle de posicionamento em malha fechada utilizando-se a retroalimentação visual. Experimentos de SPM, SNOM e TERS são úteis em indústrias de manufatura de precisão, microeletrônica e biomédica, dentre outras áreas de ciência e tecnologia em que tal monitmamento resulta em uma melhora de qualidade e confiabilidade dos produtos.(54) Title: AUTOMATIC POSITIONING METHOD AND EQUIPMENT FOR PROBE SCANNING MICROSCOPY AND OPTICAL SPECTROSCOPY IN SITU (51) Int. Cl .: G01Q 60/20; G01Q 60/22; G01Q 20/02; G01J 3/44; G01Q 60/00; (...) (52) CPC: G01Q 60/20, G01Q 60/22, G01Q 20/02, G01J 3/44, G01Q 60/00, G01N 2021/656 (73) Holder (s): UNIVERSIDADE FEDERAL DE MINAS GERAIS (72) Inventor (s): LAURA PINTO COELHO AMORIM; HUDSON LUIZ SILVA DE MIRANDA; JOHNATHAN MAYKE MELO NETO; ADO JÓRIO DE VASCONCELOS; LUIZ FERNANDO ETRUSCO; LUIZ GUSTAVO DE OLIVEIRA LOPES CANÇADO; CASSIANO RABELO E SILVA (57) Abstract: This patent application describes a method and equipment capable of automatically positioning a probe used for probe scanning microscopy procedures (in English, Scanning Probe Microscopy or SPM), including its coupling with optical systems, such as near-field optical microscopy (from English Scanning Near-field Optical Microscopy or SNOM) or Raman spectroscopy by probe effect (from English Tip Enhanced Raman Spectroscopy or TERS), which require it to be precisely positioned and manipulated . The proposed method and equipment are based on computer vision and closed-loop positioning control using visual feedback. SPM, SNOM and TERS experiments are useful in precision manufacturing, microelectronics and biomedical industries, among other areas of science and technology where such monitoring results in an improvement in product quality and reliability.

Manipulação da Imagem IImage Manipulation I

Figure BR102015011233A2_D0001

gg

1/10 “MÉTODO E EQUIPAMENTO DE POSICIONAMENTO AUTOMÁTICO PARA MICROSCOPIA POR VARREDURA DE SONDA E ESPECTROSCOPIA ÓPTICA IN SITU” [001] O presente pedido de patente descreve um método e um equipamento capazes de posicionar automaticamente uma sonda usada para procedimentos de microscopia de varredura por sonda (do inglês, Scanning Probe Microscopy ou SPM), incluindo seu acoplamento com sistemas ópticos, como em microscopia óptica de campo próximo (do inglês Scanning Near-field Optical Microscopy ou SNOM) ou espectroscopia Raman por efeito de sonda (do inglês Tip Enhanced Raman Spectroscopy ou TERS), que exigem que a mesma seja precisamente posicionada e manipulada. O método e equipamento propostos baseiam-se em recursos de visão computacional e de controle de posicionamento em malha fechada utilizando-se a retroalimentação visual. Experimentos de SPM, SNOM e TERS são úteis em indústrias de manufatura de precisão, microeletrônica e biomédica, dentre outras áreas de ciência e tecnologia em que tal monitoramento resulta em uma melhora de qualidade e confiabilidade dos produtos.1/10 “AUTOMATIC POSITIONING METHOD AND EQUIPMENT FOR PROBE SCANNING MICROSCOPY AND OPTICAL SPECTROSCOPY IN SITU” [001] This patent application describes a method and equipment capable of automatically positioning a probe used for scanning microscopy procedures. probe (from English, Scanning Probe Microscopy or SPM), including its coupling with optical systems, as in near-field optical microscopy (from English Scanning Near-field Optical Microscopy or SNOM) or Raman spectroscopy by probe effect (from English Tip Enhanced Raman Spectroscopy or TERS), which require it to be precisely positioned and manipulated. The proposed method and equipment are based on computer vision and closed-loop positioning control using visual feedback. SPM, SNOM and TERS experiments are useful in precision manufacturing, microelectronic and biomedical industries, among other areas of science and technology where such monitoring results in an improvement in product quality and reliability.

[002] Experimentos de SPM, SNOM e TERS são capazes de ultrapassar o limite de difração da luz e produzir imagens com resolução atômica, assim como extrair informações como morfologia, condutividade elétrica, dureza e propriedades magnéticas e ópticas dos materiais em estudo.[002] Experiments by SPM, SNOM and TERS are able to exceed the diffraction limit of light and produce images with atomic resolution, as well as extract information such as morphology, electrical conductivity, hardness and magnetic and optical properties of the materials under study.

[003] O documento US7355422B2 intitulado “OPTICALLY ENHANCED PROBE ALIGNMENT” de 08/04/2008 refere-se a um método de verificação de posicionamento por meio de visão computacional utilizado na inspeção de circuitos integrados, mas não se aplica em posicionamento de sondas em microscopia ótica de varredura.[003] The document US7355422B2 entitled “OPTICALLY ENHANCED PROBE ALIGNMENT” of 04/08/2008 refers to a method of positioning verification by means of computer vision used in the inspection of integrated circuits, but does not apply in positioning probes in scanning optical microscopy.

[004] O trabalho “Posicionamento e Calibração de um Manipulador Robótico Submarino com Uso De Visão Computacional”, disponível em http://www.thinktank.net.br/publication/posicionadorsubmarino.pdf, propõe o uso de visão computacional e um controle automático para realizar a calibração e movimentação de um manipulador robótico submarino. Entretanto, a proposta não envolve aplicações em experimentos científicos, de escala nanométrica, nem de precisão, assim como não propõe as soluções de hardware, interface[004] The work “Positioning and Calibration of an Underwater Robotic Manipulator with the Use of Computer Vision”, available at http://www.thinktank.net.br/publication/posicionadorsubmarino.pdf, proposes the use of computer vision and a control automatic to perform the calibration and movement of an underwater robotic manipulator. However, the proposal does not involve applications in scientific experiments, of nanoscale or precision, just as it does not propose hardware solutions, interfaces

2/10 homem-máquina, nem a montagem na qual a tecnologia será implementada, apenas a teoria e idéia por trás da implementação. Além disso, não foi desenvolvido nenhum protótipo real, as idéias foram testadas apenas em simulações.2/10 man-machine, nor the assembly in which the technology will be implemented, just the theory and idea behind the implementation. In addition, no real prototype was developed, the ideas were tested only in simulations.

[005] Em experimentos TERS realizados em laboratório, por exemplo, há uma dificuldade intrínseca na realização manual do procedimento de posicionamento da sonda com o centroide do ponto de LASER utilizado. Para realizar este experimento, a sonda é fixada a um instrumento de posicionamento que é, então, manualmente movimentado pelo especialista. Este posicionamento manual, que é realizado de forma automática pelo instrumento aqui apresentado, é feito com o auxílio da imagem capturada pelos sistemas câmera-telescópio e câmera-microscópio, idênticos aos utilizados na presente tecnologia. No procedimento de ajuste manual, com base na imagem, o especialista move, com as mãos, nano manipuladores que movimentam o sistema de medição até que a ponta seja corretamente posicionada. Esse procedimento, que exige a presença de um técnico especialista, demanda tempo, paciência e treinamento, assim como está sujeito a erros humanos, variações na precisão e na duração do posicionamento. Além disso, a qualidade do experimento em si está fortemente associada à qualidade do posicionamento feito, incluindo a repetibilidade do processo, explicitando sua importância. Essas dificuldades configuram limitações ao uso e disseminação de técnicas de SPM, SNOM e TERS, sendo, portanto, barreiras contra, não só o avanço das técnicas em si, como de toda a inovação que poderia vir com o emprego das mesmas.[005] In TERS experiments carried out in the laboratory, for example, there is an intrinsic difficulty in manually performing the probe positioning procedure with the LASER point centroid used. To carry out this experiment, the probe is attached to a positioning instrument that is then manually moved by the specialist. This manual positioning, which is performed automatically by the instrument presented here, is done with the aid of the image captured by the camera-telescope and camera-microscope systems, identical to those used in the present technology. In the manual adjustment procedure, based on the image, the specialist moves, with his hands, nano manipulators that move the measurement system until the tip is correctly positioned. This procedure, which requires the presence of a specialist technician, requires time, patience and training, as well as being subject to human errors, variations in the accuracy and duration of the positioning. In addition, the quality of the experiment itself is strongly associated with the quality of the positioning done, including the repeatability of the process, explaining its importance. These difficulties constitute limitations to the use and dissemination of SPM, SNOM and TERS techniques, being, therefore, barriers against not only the advancement of the techniques themselves, but also of any innovation that could come with their use.

[006] Diante dessas dificuldades, foi desenvolvido um método e um equipamento de posicionamento automático com uma interface de fácil operação, que permite a usuários leigos utilizar o sistema conforme suas necessidades e configurações e, também, controlar, de forma independente, todos os atuadores integrados, descartando a necessidade da presença de um especialista dedicado e as desvantagens associadas ao posicionamento manual.[006] In view of these difficulties, a method and automatic positioning equipment with an easy-to-operate interface was developed, which allows lay users to use the system according to their needs and configurations and also to independently control all actuators integrated, eliminating the need for a dedicated specialist and the disadvantages associated with manual positioning.

3/10 [007] O equipamento apresentado na presente invenção pode ser utilizado para dar suporte a equipamentos capazes de realizar experimentos de SPM, SNOM e TERS. Com ele, agrega-se maior repetibilidade, confiabilidade, rapidez e robustez aos experimentos, pois propicia o posicionamento automático para Microscopia por Varredura de Sonda e Espectroscopia Óptica in situ, e abre possibilidade para outras aplicações, como, por exemplo, o posicionamento de amostras.3/10 [007] The equipment presented in the present invention can be used to support equipment capable of carrying out SPM, SNOM and TERS experiments. With it, greater repeatability, reliability, speed and robustness are added to the experiments, as it provides automatic positioning for Probe Scanning Microscopy and Optical Spectroscopy in situ, and opens up the possibility for other applications, such as sample placement .

[008] O equipamento é dividido em três subsistemas: um subsistema de visão, um de posicionamento e um terceiro, de inteligência e controle. O subsistema de visão é composto por uma ou mais câmeras; o subsistema de posicionamento consiste em atuadores capazes de movimentar, tridimensionalmente, os elementos de interesse. Esses atuadores devem se comunicar com os elementos de controle (como microcontroladores) que, por sua vez, se comunicam com o software; Finalmente, o subsistema de inteligência e controle (o software) é composto por algoritmos de visão computacional, de controle de posicionamento em malha fechada, algoritmos de foco automático, opcionalmente, e por módulos para comunicação com os sensores e atuadores utilizados na solução.[008] The equipment is divided into three subsystems: a vision, a positioning and a third, intelligence and control subsystem. The vision subsystem consists of one or more cameras; the positioning subsystem consists of actuators capable of moving the elements of interest in three dimensions. These actuators must communicate with the control elements (such as microcontrollers) that, in turn, communicate with the software; Finally, the intelligence and control subsystem (the software) consists of computer vision algorithms, closed-loop positioning control, optionally autofocus algorithms, and modules for communication with the sensors and actuators used in the solution.

[009] BREVE DESCRIÇÃO DAS FIGURAS [0010] FIGURA 1 - A Figura 1 exibe um fluxograma em que são apresentadas as etapas da manipulação das imagens obtidas por meio de câmera visando à obtenção de seus contornos, as imagens a serem manipuladas são a imagem do ponto de LASER e a imagem contendo a sonda e seu reflexo.[009] BRIEF DESCRIPTION OF THE FIGURES [0010] FIGURE 1 - Figure 1 shows a flowchart in which the stages of manipulating the images obtained by means of a camera are presented in order to obtain their contours, the images to be manipulated are the image of the LASER point and the image containing the probe and its reflection.

[0011] FIGURA 2 - A Figura 2 apresenta um fluxograma que indica as etapas de manipulação dos contornos, obtidos a partir das ações indicadas na Figura 1, do ponto de LASER, da sonda e seu reflexo. A manipulação desses contornos tem o objetivo de fornecer as coordenadas do ponto de LASER, da sonda e seu reflexo.[0011] FIGURE 2 - Figure 2 shows a flowchart that indicates the steps for manipulating the contours, obtained from the actions indicated in Figure 1, the LASER point, the probe and its reflection. The manipulation of these contours aims to provide the coordinates of the LASER point, the probe and its reflection.

[0012] FIGURA 3 - A Figura 3 mostra um fluxograma com as etapas de localização do ponto de LASER, da sonda e seu reflexo, com objetivo de atualizar as posições desses elementos.[0012] FIGURE 3 - Figure 3 shows a flowchart with the steps for locating the LASER point, the probe and its reflection, in order to update the positions of these elements.

Figure BR102015011233A2_D0002

4/10 [0013] FIGURA 4 - A Figura 4 possui um fluxograma que apresenta as etapas de posicionamento da sonda que são executadas de forma iterativa até o fim do posicionamento.4/10 [0013] FIGURE 4 - Figure 4 has a flowchart that shows the probe positioning steps that are performed iteratively until the end of the positioning.

[0014] FIGURA 5 - A Figura 5 mostra, através de um fluxograma, as ações que antecedem o acionamento dos atuadores: motores de passo (9) e (10) e picomotor (4).[0014] FIGURE 5 - Figure 5 shows, through a flowchart, the actions that precede the actuation of the actuators: stepper motors (9) and (10) and picomotor (4).

[0015] FIGURA 6 - A Figura 6 apresenta um microscópio de varredura por sonda provido da tecnologia de posicionamento automático por retroalimentação visual e suas principais partes constituintes: diapasão (1), sonda (2), unidade de varredura (3) contendo (1) e (2), picomotor (4), computador (5), controlador do telescópio (6), controlador do picomotor (7), controlador sistema de posicionamento do estágio XY (8), sistema de posicionamento do estágio X (9), sistema de posicionamento do estágio Y (10), microscópio (11), sistema óptico para captura de imagem (12), câmera do telescópio (13), câmera do microscópio (14) e estágio XY (15).[0015] FIGURE 6 - Figure 6 shows a probe scanning microscope provided with automatic positioning technology by visual feedback and its main constituent parts: tuning fork (1), probe (2), scanning unit (3) containing (1 ) and (2), picomotor (4), computer (5), telescope controller (6), picomotor controller (7), XY stage positioning system controller (8), X stage positioning system (9) , Y stage positioning system (10), microscope (11), optical system for image capture (12), telescope camera (13), microscope camera (14) and XY stage (15).

[0016] [0017] FIGURA 7 - A Figura 7 mostra uma sequência cronológica de imagens, numeradas de 1 a 12, que ilustra o posicionamento automático realizado pelo protótipo do equipamento proposto.[0016] [0017] FIGURE 7 - Figure 7 shows a chronological sequence of images, numbered from 1 to 12, which illustrates the automatic positioning performed by the prototype of the proposed equipment.

[0018] DESCRIÇÃO DETALHADA DA TECNOLOGIA [0019] O presente pedido de patente descreve um método e um equipamento capazes de posicionar automaticamente uma sonda usada para procedimentos de microscopia de varredura por sonda (do inglês, Scanning Probe Microscopy ou SPM), incluindo seu acoplamento com sistemas ópticos, como em microscopia óptica de campo próximo (do inglês Scanning Near-field Optical Microscopy ou SNOM) ou espectroscopia Raman por efeito de sonda (do inglês Tip Enhanced Raman Spectroscopy ou TERS), que exigem que a sonda seja precisamente posicionada e manipulada. Também pode ser utilizado em outras aplicações em que seja necessário o posicionamento preciso, por exemplo, o posicionamento de amostras. O método e equipamento apresentados se baseiam em recursos de visão computacional e de controle de posicionamento em malha fechada utilizando-se a retroalimentação visual.[0018] DETAILED TECHNOLOGY DESCRIPTION [0019] The present patent application describes a method and equipment capable of automatically positioning a probe used for probe scanning microscopy procedures (in English, Scanning Probe Microscopy or SPM), including its coupling with optical systems, such as near-field optical microscopy (from English Scanning Near-field Optical Microscopy or SNOM) or probe effect Raman spectroscopy (from Tip Enhanced Raman Spectroscopy or TERS), which require the probe to be precisely positioned and manipulated. It can also be used in other applications where precise positioning is required, for example, sample positioning. The method and equipment presented are based on computer vision and closed-loop positioning control using visual feedback.

5/10 [0020] O método utilizado para posicionar automaticamente uma sonda usada para procedimentos de microscopia de varredura compreende as seguintes etapas:5/10 [0020] The method used to automatically position a probe used for scanning microscopy procedures comprises the following steps:

a) adquirir imagens por meio de câmera controlada por um sistema de aquisição de imagens capaz de controlar a cadência e redefini-la ao longo da execução do método, cronometrar as atividades da câmera e solicitar a aquisição de imagens, além de efetuar a contagem de imagens e utilizá-la para coordenar as instruções do método;a) acquire images through a camera controlled by an image acquisition system capable of controlling the cadence and resetting it during the execution of the method, timing the activities of the camera and requesting the acquisition of images, in addition to counting images and use it to coordinate the method instructions;

b) reconhecer em uma imagem adquirida o ponto de laser, isolando-se o canal de brilho mais intenso, aplicando-se filtro, preferencialmente o Gaussiano, intensificando-se os pontos de maior brilho e eliminado-se os pontos de menor brilho, binariza-se a imagem, extrai-se o contorno mais relevante dentro da região de brilho mais intenso, o contorno relevante é circunscrito por um círculo e o seu centro é usado como o centroide local;b) recognize the laser point in an acquired image, isolating the channel with the most intense brightness, applying a filter, preferably the Gaussian one, intensifying the points of greater brightness and eliminating the points of less brightness, binarizing the image is extracted, the most relevant contour is extracted within the region of the most intense brightness, the relevant contour is circumscribed by a circle and its center is used as the local centroid;

c) detectar em uma imagem a nanoantena e sua reflexão e determinar as posições de ambas, aplicando-se método de segmentação que separa as regiões que correspondem ao primeiro e segundo plano da imagem através da comparação de intensidade dos pixels entre o primeiro e segundo plano da imagem em relação ao valor limiar obtido por método adaptativo, preferencialmente o método Otsu; após a aplicação do limiar são obtidos os contornos mais relevantes que são submetidos a uma verificação que examina pares de contornos e procuram por aqueles que são espaçados e alinhados verticalmente e têm tamanhos semelhantes e pertinentes, finalmente os contornos selecionados são circunscritos; o círculo intermediário é obtido calculando-se a média aritmética das coordenadas dos outros dois círculos obtidos a partir da sonda e do reflexo da mesma e a partir dos pontos de contorno mais próximos do círculo, elegem-se os pontos mais internos que serão utilizados como coordenadas da nanoantena e de seu reflexo;c) detect in an image the nanoantenna and its reflection and determine the positions of both, applying a segmentation method that separates the regions that correspond to the first and second plan of the image by comparing the pixel intensity between the first and the second plane of the image in relation to the threshold value obtained by the adaptive method, preferably the Otsu method; after applying the threshold, the most relevant contours are obtained, which are subjected to a verification that examines pairs of contours and look for those that are spaced and aligned vertically and have similar and pertinent sizes, finally the selected contours are circumscribed; the intermediate circle is obtained by calculating the arithmetic mean of the coordinates of the other two circles obtained from the probe and its reflection and from the contour points closest to the circle, the innermost points that will be used as coordinates of the nanoantenna and its reflection;

d) verificar e atualizar dados referentes às posições do ponto de LASER e do conjunto sonda e seu reflexo submetendo-se as imagens a um filtrod) verify and update data regarding the positions of the LASER point and the probe set and its reflection by submitting the images to a filter

Figure BR102015011233A2_D0003

6/10 passa-baixas para proporcionar mais estabilidade ao procedimento e impedir o envio de comandos para os atuadores baseados em medições equivocadas, analisar a coerência das variações das imagens verificando se as mudanças são fisicamente possíveis e esperadas antes de atualizá-las;6/10 low passes to provide more stability to the procedure and prevent the sending of commands to the actuators based on wrong measurements, analyze the coherence of the variations of the images, checking if the changes are physically possible and expected before updating them;

e) controlar os movimentos da sonda baseando-se no cálculo das distâncias relativas, horizontais (x) e verticais (Y), entre os elementos de interesse (ponto de laser, sonda e seu reflexo) que são calculadas através das imagens obtidas após a etapa “d”; definir com base nas imagens obtidas após a etapa “d” as direções e sentidos dos movimentos de aproximação da sonda ao ponto de LASER, definir o tipo de movimento com base nas distâncias calculadas, sendo que o movimento da sonda é realizado por meio de motores e pode ser subdividido em três escalas: movimentos de maior amplitude, moderados e degraus, em conformidade com a ordem crescente de precisão intrínseca ao posicionamento; enviar os comandos resultantes aos atuadores contendo todas as informações do movimento e executar as etapas iterativamente até que as condições necessárias para o posicionamento sejam atingidas.e) control the movements of the probe based on the calculation of the relative distances, horizontal (x) and vertical (Y), between the elements of interest (laser point, probe and its reflection) that are calculated through the images obtained after the step “d”; define, based on the images obtained after step “d”, the directions and directions of the movements of the probe approaching the LASER point, define the type of movement based on the calculated distances, and the movement of the probe is carried out by means of motors and it can be subdivided into three scales: movements of greater amplitude, moderate and steps, in accordance with the increasing order of precision intrinsic to the positioning; send the resulting commands to the actuators containing all the movement information and perform the steps iteratively until the necessary conditions for positioning are reached.

[0021] As etapas “a” a “c” estão indicadas nos fluxogramas representados nas figuras 1 e 2; a etapa “d” está indicada no fluxograma representado na figura 3; e a etapa “e” está indicada nos fluxogramas representados nas figuras 4 e 5. [0022] A etapa “b” do método de posicionamento automático para microscopia por varredura de sonda e espectroscopia óptica in situ, descrito anteriormente, pode ser implementado utilizando-se outros filtros tais como filtro de média e mediana, preferencialmente o Gaussiano. Na etapa “c” pode-se utilizar outros métodos de segmentação além do mencionado como, por exemplo, casamento de modelo (Template matching) ou detecção de quinas de Harris (Harris corner detection) ou subtração de background.[0021] Steps “a” to “c” are indicated in the flowcharts represented in figures 1 and 2; step “d” is indicated in the flowchart shown in figure 3; and step “e” is indicated in the flowcharts represented in figures 4 and 5. [0022] Step “b” of the automatic positioning method for probe scanning microscopy and optical spectroscopy in situ, described previously, can be implemented using if other filters such as filter of average and median, preferably Gaussian. In step “c”, you can use other segmentation methods in addition to the one mentioned, for example, template matching (Template matching) or Harris corner detection (Harris corner detection) or background subtraction.

[0023] O processo de posicionamento da sonda se inicia com a detecção das posições do ponto de laser e da sonda através da medição das distâncias relativas de ambos nas direções X e Y do sistema de coordenadas utililizado,[0023] The probe positioning process begins with the detection of the positions of the laser point and the probe by measuring the relative distances of both in the X and Y directions of the coordinate system used,

Figure BR102015011233A2_D0004

7/10 em seguida um algoritmo determina os procedimentos adotados para realizar a aproximação da sonda até o centro do ponto de laser que representa a referência do sistema de coordenadas de controle.7/10 then an algorithm determines the procedures adopted to carry out the approach of the probe to the center of the laser point that represents the reference of the control coordinate system.

[0024] As ètapas de aquisição de imagens, detecção da sonda e do ponto de laser, medição de foco, emissão dos sinais de controle para movimentação da sonda, bem como a alteração do foco ocorrem de maneira iterativa até que um critério de parada pré-estabelecido seja alcançado.[0024] The steps of image acquisition, probe and laser spot detection, focus measurement, emission of control signals to move the probe, as well as the change of focus occur in an iterative way until a pre-stop criterion -established is achieved.

[0025] As imagens obtidas pela câmera são fundamentais no sistema de retroalimentação visual presente na tecnologia proposta. As configurações da câmera e a cadência são determinadas no início da execução do procedimento de alinhamento e podem ser redefinidas ao longo da execução. Para reconhecer o ponto de laser, primeiramente isola-se o canal de brilho mais intenso e, em seguida, aplica-se um filtro, por exemplo, Gaussiano, que suaviza a imagem. Na etapa seguinte os pontos de maior brilho são intensificados e os de menor brilho são eliminados. A imagem é então binarizada e, dentro a região de interesse (o centro da imagem), o contorno mais relevante é extraído, após distinguir o contorno principal, ele é circunscrito por um círculo e o seu centro é então usado como o centroide local.[0025] The images obtained by the camera are fundamental in the visual feedback system present in the proposed technology. Camera settings and cadence are determined at the start of the alignment procedure and can be reset during the run. To recognize the laser spot, first isolate the channel with the most intense brightness and then apply a filter, for example, Gaussian, which softens the image. In the next stage the points of greater brightness are intensified and those of less brightness are eliminated. The image is then binarized and, within the region of interest (the center of the image), the most relevant outline is extracted, after distinguishing the main outline, it is circumscribed by a circle and its center is then used as the local centroid.

[0026] Para descobrir as posições da extremidade da nanoantena e sua reflexão, utiliza-se um método simples de segmentação, separando regiões da imagem que corresponde a características de interesse. Esta separação é baseada na a comparação de intensidade dos pixels entre o primeiro e segundo plano da imagem em relação a valor limiar. Em vez de alimentar o software com um valor limite fixo, utiliza-se um método adaptativo, por exemplo, de Otsu. Assume-se que a imagem contém duas classes de pixels (identificados como o primeiro plano e o plano de fundo) e calcula-se o limite de separação ideal entre essas duas classes de pixels. Após a aplicação do limite, os contornos mais relevantes são selecionados. Alguns pré-requisitos devem ser verificados antes decidir quais contornos correspondem aos que estão sendo pesquisados. O algoritmo é executado, as instruções verificam pares de contornos e procuram por pares de contornos que são espaçados e alinhados verticalmente e têm tamanhos semelhantes e pertinentes. Os contornos[0026] To discover the positions of the nanoantenna end and its reflection, a simple segmentation method is used, separating regions of the image that correspond to characteristics of interest. This separation is based on the comparison of pixel intensity between the foreground and background of the image in relation to the threshold value. Instead of feeding the software with a fixed limit value, an adaptive method, for example, of Otsu, is used. It is assumed that the image contains two classes of pixels (identified as the foreground and background) and the optimal separation limit between these two classes of pixels is calculated. After applying the limit, the most relevant contours are selected. Some prerequisites must be checked before deciding which outlines correspond to those being researched. The algorithm is executed, the instructions check pairs of contours and look for pairs of contours that are vertically spaced and aligned and have similar and pertinent sizes. The contours

Figure BR102015011233A2_D0005

8/10 selecionados são circunscritos e a partir dos pontos de contorno mais próximos do círculo (com três níveis de proximidade), elegem-se os pontos mais internos. Estes pontos serão utilizados como coordenadas da nanoantena e de sua reflexão.8/10 selected are circumscribed and from the contour points closest to the circle (with three levels of proximity), the innermost points are chosen. These points will be used as coordinates of the nanoantenna and its reflection.

[0027] Para cada nova imagem adquirida por meio da câmera, as posições dos elementos (sonda e ponto de laser) são atualizadas. No entanto, o algoritmo de detecção pode, por vezes, fornecer resultados errados para os módulos subsequentes. Mudanças bruscas na intensidade de iluminação e outros distúrbios podem levar a erros de detecção e posição. Para evitar tal problema um Filtro de passa-baixas foi implementado para proporcionar maior estabilidade ao procedimento e impedir o envio de comandos para os atuadores baseados em medições equivocadas. Antes de aceitar a atualização nas posições elementos, o algoritmo verifica se a variação é coerente com o que é fisicamente possível e esperado. Se assim for, as posições são atualizadas, caso contrário os comandos são temporariamente rejeitados e a posição anterior armazenada como a posição válida mais recente. Se a variação persistir, o que indica que está certa, a nova posição será considerada correta e o procedimento continua normalmente.[0027] For each new image acquired through the camera, the positions of the elements (probe and laser point) are updated. However, the detection algorithm can sometimes give erroneous results for subsequent modules. Sudden changes in lighting intensity and other disturbances can lead to errors in detection and position. To avoid such a problem, a low-pass filter was implemented to provide greater stability to the procedure and prevent the sending of commands to actuators based on erroneous measurements. Before accepting the update in the element positions, the algorithm checks whether the variation is consistent with what is physically possible and expected. If so, the positions are updated, otherwise the commands are temporarily rejected and the previous position is stored as the most recent valid position. If the variation persists, which indicates that it is correct, the new position will be considered correct and the procedure will continue normally.

[0028] Com base nas atualizações consideradas na etapa anterior, as distâncias relativas, horizontais (x) e verticais (y), entre os elementos de interesse (ponto de laser, sonda e seu reflexo) são calculadas. Com base nestas distâncias, a direção e o tipo de movimento são determinados. Três escalas do movimento foram delineadas para o sistema de movimentação da sonda: movimentos de maior amplitude, moderados e degraus, em ordem crescente de precisão. Depois de estabelecer os sentidos e distâncias do movimento, os comandos são enviados para os atuadores. Finalmente, verifica-se se as condições necessárias para o posicionamento foram atingidas. [0029] A qualidade do foco de uma imagem representa a percepção de seu brilho, contraste e definição. Estas características podem ser medidas de acordo com um determinado indicador e quando o valor deste indicador aumenta, para condições específicas, indica que o foco está melhorando. A função de Sobel é usada como uma possível medida de foco. Este operador[0028] Based on the updates considered in the previous step, the relative distances, horizontal (x) and vertical (y), between the elements of interest (laser point, probe and its reflection) are calculated. Based on these distances, the direction and type of movement are determined. Three movement scales were outlined for the probe's movement system: movements of greater amplitude, moderate and steps, in increasing order of precision. After establishing the directions and distances of the movement, the commands are sent to the actuators. Finally, it is checked whether the necessary conditions for positioning have been reached. [0029] The quality of the focus of an image represents the perception of its brightness, contrast and definition. These characteristics can be measured according to a certain indicator and when the value of this indicator increases, for specific conditions, it indicates that the focus is improving. The Sobel function is used as a possible focus measure. This operator

Figure BR102015011233A2_D0006

9/10 executa uma medição de gradiente em uma imagem, enfatizando regiões de alta frequência espacial, que correspondem às bordas. Através da medição deste operador, o algoritmo é capaz de diagnosticar se a imagem está focada, caso o foco tenha sido perdido, o algoritmo de posicionamento é interrompido até que o algoritmo de foco automático se inicie e restabeleça o foco adequado, seu objetivo é mover a lente do telescópio, mudando o foco, até que a nitidez máxima seja atingida. Para fazê-lo, o módulo envia informações de direção e da velocidade para o controlador o sistema óptico de aquisição de imagens. Assim que a imagem atingir o foco adequado, o procedimento de posicionamento é retomado.9/10 performs a gradient measurement on an image, emphasizing regions of high spatial frequency, which correspond to the edges. By measuring this operator, the algorithm is able to diagnose whether the image is in focus, if the focus has been lost, the positioning algorithm is interrupted until the autofocus algorithm starts and re-establishes the proper focus, its objective is to move the telescope lens, changing the focus, until maximum sharpness is achieved. To do this, the module sends direction and speed information to the controller via the optical image acquisition system. As soon as the image reaches the proper focus, the positioning procedure is resumed.

[0030] O equipamento é dividido em três subsistemas: um subsistema de visão, um de posicionamento e um terceiro, de inteligência e controle. O subsistema de visão é composto por uma ou mais câmeras; o subsistema de posicionamento consiste em atuadores capazes de movimentar, tridimensionalmente, os elementos de interesse. Esses atuadores devem se comunicar com os elementos de controle (como microcontroladores, por exemplo) que, por sua vez, se comunicam com o software cujas linhas de código contêm instruções para posicionar automaticamente uma sonda sob a forma de algoritmos de visão computacional, de controle de posicionamento em malha fechada, algoritmos de foco automático, opcionalmente, e por módulos para comunicação com os sensores e atuadores utilizados na solução apresentada.[0030] The equipment is divided into three subsystems: a vision, a positioning and a third, intelligence and control subsystem. The vision subsystem consists of one or more cameras; the positioning subsystem consists of actuators capable of moving the elements of interest in three dimensions. These actuators must communicate with the control elements (such as microcontrollers, for example) which, in turn, communicate with the software whose lines of code contain instructions to automatically position a probe in the form of computer vision, control algorithms positioning in closed loop, automatic focus algorithms, optionally, and by modules for communication with the sensors and actuators used in the presented solution.

[0031] O equipamento proposto nesta patente trata do microscópio de varredura por sonda provido da tecnologia de posicionamento automático por retroalimentação visual e suas principais partes constituintes compreendem os seguintes elementos: diapasão (1), sonda (2), unidade de varredura (3) contendo (1) e (2), picomotor (4), computador (5), controlador do telescópio (6), controlador do picomotor (7), controlador sistema de posicionamento do estágio XY (8), sistema de posicionamento do estágio X (9), sistema de posicionamento do estágio Y (10), microscópio (11), sistema óptico para captura de imagem (12), câmera do telescópio (13), câmera do microscópio (14) e estágio XY (15).[0031] The equipment proposed in this patent deals with the probe scanning microscope provided with automatic positioning technology by visual feedback and its main constituent parts comprise the following elements: tuning fork (1), probe (2), scanning unit (3) containing (1) and (2), picomotor (4), computer (5), telescope controller (6), picomotor controller (7), XY stage positioning system controller (8), X stage positioning system (9), Y stage positioning system (10), microscope (11), optical system for image capture (12), telescope camera (13), microscope camera (14) and XY stage (15).

Figure BR102015011233A2_D0007

10/10 [0032] Os elementos (8) a (15) são sistemas versáteis que podem envolver motores de passo ou sistemas piezoelétricos, telescópio óptico ou lentes objetivas, dependento da necessidade de precisão, compactação do sistema, ou outras necessidades técnicas e econômicas.10/10 [0032] Elements (8) to (15) are versatile systems that can involve stepper motors or piezoelectric systems, optical telescope or objective lenses, depending on the need for precision, compactness of the system, or other technical and economic needs .

[0033] O equipamento proposto é provido de um algoritmo de foco automático que possui uma etapa que utiliza a medição do foco das imagens adquiridas pelas câmeras, que indica a nitidez das imagens, com objetivo de alcançar a máxima nitidez das imagens em que ocorrem as detecções da sonda e do ponto de laser. Para que isso ocorra existe uma comunicação com o controlador do telescópio que atua no foco através de um motor.[0033] The proposed equipment is provided with an automatic focus algorithm that has a step that uses the focus measurement of the images acquired by the cameras, which indicates the sharpness of the images, in order to achieve the maximum sharpness of the images in which the images occur. probe and laser spot detections. For this to happen, there is a communication with the telescope controller that acts on the focus through a motor.

[0034] A invenção pode ser melhor compreendida através dos exemplos abaixo, não limitantes.[0034] The invention can be better understood through the examples below, not limiting.

[0035] Exemplo 1 - Resultados experimentais do protótipo [0036] O protótipo construído do microscópio de varredura por sonda provido da presente tecnologia de posicionamento automático por retroalimentação visual possui os seguintes elementos constituintes: computador HP Compaq DC 5800 Small Form Factor; o controlador MSE1650B; o driver TTL/Analog Picomotor™ Driver do picomotor; o controlador Arduino Motor Shield L293D; dois motores de passo SM1.8 - A1734CMN; o microscópio da Nikon, Eclipse TE2000-U; telescópio motorizado KC VideoMax™ Long Distance Microscope; câmera V200e, da Invent Vision; câmera da ThorLabs, DCU223C; atuador picomotor da New Port, 8302 e o estágio xy manual, da Thor Labs.[0035] Example 1 - Experimental results of the prototype [0036] The prototype built of the probe scanning microscope provided with the present automatic positioning technology by visual feedback has the following constituent elements: HP Compaq DC 5800 Small Form Factor computer; the MSE1650B controller; the TTL / Analog Picomotor ™ driver Picomotor driver; the Arduino Motor Shield L293D controller; two SM1.8 stepper motors - A1734CMN; Nikon's microscope, Eclipse TE2000-U; motorized telescope KC VideoMax ™ Long Distance Microscope; V200e camera, from Invent Vision; ThorLabs camera, DCU223C; picomotor actuator from New Port, 8302 and the xy manual stage, from Thor Labs.

[0037] A interface entre o operador e o equipamento foi feita através de um software contendo o método automático de posicionamento por retroalimentação visual.[0037] The interface between the operator and the equipment was made using software containing the automatic method of positioning by visual feedback.

[0038] A Figura 7 mostra uma sequência cronológica de imagens, numeradas de 1 a 12, que ilustra o posicionamento automático realizado pelo protótipo do equipamento apresentado na Figura 6, evidenciando a aproximação automática da sonda de forma gradativa ao ponto de LASER (em cor verde).[0038] Figure 7 shows a chronological sequence of images, numbered from 1 to 12, which illustrates the automatic positioning performed by the equipment prototype shown in Figure 6, showing the automatic approach of the probe gradually to the LASER point (in color) green).

1/31/3

Claims (6)

REIVINDICAÇÕES 1. Método de posicionamento automático para microscopia por varredura de sonda e espectroscopia óptica in situ, caracterizado por compreender as seguintes etapas:1. Automatic positioning method for probe scanning microscopy and optical spectroscopy in situ, characterized by comprising the following steps: a) adquirir imagens por meio de câmera controlada por um sistema de aquisição de imagens capaz de controlar a cadência e redefini-la ao longo da execução do método, cronometrar as atividades da câmera e solicitar a aquisição de imagens, além de efetuar a contagem de imagens e utilizá-la para coordenar as instruções do método;a) acquire images through a camera controlled by an image acquisition system capable of controlling the cadence and resetting it during the execution of the method, timing the activities of the camera and requesting the acquisition of images, in addition to counting images and use it to coordinate the method instructions; b) reconhecer em uma imagem adquirida o ponto de laser, isolando-se o canal de brilho mais intenso, aplicando-se filtro, preferencialmente o Gaussiano, intensificando-se os pontos de maior brilho e eliminado-se os pontos de menor brilho, binariza-se a imagem, extrai-se o contorno mais relevante dentro da região de brilho mais intenso, o contorno relevante é circunscrito por um círculo e o seu centro é usado como o centroide local;b) recognize the laser point in an acquired image, isolating the channel with the most intense brightness, applying a filter, preferably the Gaussian one, intensifying the points of greater brightness and eliminating the points of less brightness, binarizing the image is extracted, the most relevant contour is extracted within the region of the most intense brightness, the relevant contour is circumscribed by a circle and its center is used as the local centroid; c) detectar em uma imagem a nanoantena e sua reflexão e determinar as posições de ambas, aplicando-se método de segmentação que separa as regiões que correspondem ao primeiro e segundo plano da imagem através da comparação de intensidade dos pixels entre o primeiro e segundo plano da imagem em relação ao valor limiar obtido por método adaptativo, preferencialmente o método Otsu; após a aplicação do limiar são obtidos os contornos mais relevantes que são submetidos a uma verificação que examina pares de contornos e procuram por aqueles que são espaçados e alinhados verticalmente e têm tamanhos semelhantes e pertinentes, finalmente os contornos selecionados são circunscritos; o círculo intermediário é obtido calculando-se a média aritmética das coordenadas dos outros dois círculos obtidos a partir da sonda e do reflexo da mesma e a partir dos pontos de contorno mais próximos do círculo, elegem-se os pontos mais internos que serão utilizados como coordenadas da nanoantena e de seu reflexo;c) detect in an image the nanoantenna and its reflection and determine the positions of both, applying a segmentation method that separates the regions that correspond to the first and second plan of the image by comparing the pixel intensity between the first and the second plane of the image in relation to the threshold value obtained by the adaptive method, preferably the Otsu method; after applying the threshold, the most relevant contours are obtained, which are subjected to a verification that examines pairs of contours and look for those that are spaced and aligned vertically and have similar and pertinent sizes, finally the selected contours are circumscribed; the intermediate circle is obtained by calculating the arithmetic mean of the coordinates of the other two circles obtained from the probe and its reflection and from the contour points closest to the circle, the innermost points that will be used as coordinates of the nanoantenna and its reflection; 2/32/3 d) verificar e atualizar dados referentes às posições do ponto de LASER e do conjunto sonda e seu reflexo submetendo-se as imagens a um filtro passa-baixas para proporcionar mais estabilidade ao procedimento e impedir o envio de comandos para os atuadores baseados em medições equivocadas, analisar a coerência das variações das imagens verificando se as mudanças são fisicamente possíveis e esperadas antes de atualizá-las;d) check and update data regarding the positions of the LASER point and the probe set and its reflection by submitting the images to a low-pass filter to provide more stability to the procedure and prevent the sending of commands to the actuators based on erroneous measurements , analyze the coherence of the variations of the images, checking if the changes are physically possible and expected before updating them; e) controlar os movimentos da sonda baseando-se no cálculo das distâncias relativas, horizontais (x) e verticais (Y), entre os elementos de interesse (ponto de laser, sonda e seu reflexo) que são calculadas através das imagens obtidas após a etapa “d”; definir com base nas imagens obtidas após a etapa “d” as direções e sentidos dos movimentos de aproximação da sonda ao ponto de LASER, definir o tipo de movimento com base nas distâncias calculadas, sendo que o movimento da sonda é realizado por meio de motores e pode ser subdividido em três escalas: movimentos de maior amplitude, moderados e degraus, em conformidade com a ordem crescente de precisão intrínseca ao posicionamento; enviar os comandos resultantes aos atuadores contendo todas as informações do movimento e executar as etapas iterativamente até que as condições necessárias para o posicionamento sejam atingidas.e) control the movements of the probe based on the calculation of the relative distances, horizontal (x) and vertical (Y), between the elements of interest (laser point, probe and its reflection) that are calculated through the images obtained after the step “d”; define, based on the images obtained after step “d”, the directions and directions of the movements of the probe approaching the LASER point, define the type of movement based on the calculated distances, and the movement of the probe is carried out by means of motors and it can be subdivided into three scales: movements of greater amplitude, moderate and steps, in accordance with the increasing order of precision intrinsic to the positioning; send the resulting commands to the actuators containing all the movement information and perform the steps iteratively until the necessary conditions for positioning are reached. 2. Método de posicionamento automático para microscopia por varredura de sonda e espectroscopia óptica in situ, de acordo com a reivindicação 1, etapa “b”, caracterizado pela utilização de filtros, tais como o filtro de média e mediana, preferencialmente o Gaussiano.2. Automatic positioning method for probe scanning microscopy and optical spectroscopy in situ, according to claim 1, step “b”, characterized by the use of filters, such as the mean and median filter, preferably the Gaussian. 3. Método de posicionamento automático para microscopia por varredura de sonda e espectroscopia óptica in situ, de acordo com a reivindicação 1, etapa “c”, caracterizado pela utilização de métodos de segmentação como o casamento de modelo (Template matching), detecção de quinas de Harris (Harris corner detection), subtração de background, preferencialmente o método Otsu.3. Automatic positioning method for probe scanning microscopy and optical spectroscopy in situ, according to claim 1, step “c”, characterized by the use of segmentation methods such as model matching (template matching), corner detection Harris (Harris corner detection), background subtraction, preferably the Otsu method. 3/33/3 4. Equipamento de posicionamento automático para microscopia por varredura de sonda e espectroscopia óptica in situ, caracterizado por compreender um diapasão (1), sonda (2), unidade de varredura (3) contendo (1) e (2), picomotor (4), computador (5), controlador do telescópio (6), controlador do picomotor (7), controlador sistema de posicionamento do estágio XY (8), sistema de posicionamento do estágio X (9), sistema de posicionamento do estágio Y (10), microscópio (11), sistema óptico para captura de imagem (12), câmera do telescópio (13), câmera do microscópio (14) e estágio XY (15).4. Automatic positioning equipment for probe scanning microscopy and optical spectroscopy in situ, characterized by comprising a tuning fork (1), probe (2), scanning unit (3) containing (1) and (2), picomotor (4 ), computer (5), telescope controller (6), picomotor controller (7), XY stage positioning system controller (8), X stage positioning system (9), Y stage positioning system (10 ), microscope (11), optical system for image capture (12), telescope camera (13), microscope camera (14) and XY stage (15). 5. Equipamento de posicionamento automático para microscopia por varredura de sonda e espectroscopia óptica in situ, de acordo com a reivindicação 4, caracterizado pelos elementos (8) a (15) poderem envolver motores de passo ou sistemas piezoelétricos, telescópio óptico ou lentes objetivas.5. Automatic positioning equipment for probe scanning microscopy and optical spectroscopy in situ, according to claim 4, characterized in that the elements (8) to (15) may involve stepper motors or piezoelectric systems, optical telescopes or objective lenses. 1/61/6 FIGURASFIGURES FIGURA 1FIGURE 1 2/62/6 Manipulação dos ContornosContour Manipulation Contorno do Ponto de LASERLASER Point Outline Contornos da Sonda e de seu ReflexoOutlines of the Probe and its Reflection Os Contornos são Circunscritos com um CírculoOutlines are circumscribed with a circle O Centro do Círculo é Considerado o Centro do Ponto do LASERThe Center of the Circle is Considered the Center of the LASER Point Encontra os Pontos mais Próximos ao CírculoFind the Points Nearest to the Circle Ambos os Contornos são Circunscritos com um CírculoBoth outlines are circumscribed with a circle Elege, dentre os Pontos Encontrados, os que estão mais Internos aos ContornosElects, among the Points Found, those that are more Internal to the Contours Utiliza esses Pontos como CoordenadasUse these Points as Coordinates FIGURA 2FIGURE 2 3/63/6 Confirma o Início do AlinhamentoConfirms Alignment Start Avalia a Consistência dos Dados de PosiçãoEvaluates the Consistency of Position Data Calcula a Posição Média do Ponto de LASERCalculates the Average Position of the LASER Point Atualiza a Posição Final do Ponto de LASERUpdates the Final Position of the LASER Point Sonda e ReflexoProbe and Reflex Calcula a Posição Média da Sonda e ReflexoCalculates Average Probe and Reflex Position Avalia a Consistência dos Dados de PosiçãoEvaluates the Consistency of Position Data Atualiza a Posição Final daUpdates the Final Position of the Sonda e ReflexoProbe and Reflex FIGURA 3FIGURE 3 4/6 o4/6 o Envia Comandos aos AtuadoresSend Commands to Actuators ---o.................................................................................................---O.............................................. .................................................. . Verifica as Distâncias eSinaliza o Fim do AlinhamentoCheck Distances and Signal End of Alignment FIGURA 4FIGURE 4 5/65/6 ΟΟ Verifica a Contagem das Imagens Capturadas pela CâmeraChecks the Count of Images Captured by the Camera Verifica a Contagem das Imagens Capturadas pela CâmeraChecks the Count of Images Captured by the Camera Define a Velocidade e a Direção do Movimento do TelescópioSets the Speed and Direction of Movement of the Telescope Envia os Comandos aos ControladoresSend Commands to Controllers Envia os Comandos aos ControladoresSend Commands to Controllers FIGURA 5 «VFIGURE 5 «V 6/66/6 FIGURA 6FIGURE 6 FIGURA 7FIGURE 7 1/11/1
BR102015011233-5A 2015-05-15 2015-05-15 Automatic positioning method and equipment for scanning probe microscopy and in situ optical spectroscopy BR102015011233B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR102015011233-5A BR102015011233B1 (en) 2015-05-15 2015-05-15 Automatic positioning method and equipment for scanning probe microscopy and in situ optical spectroscopy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BR102015011233-5A BR102015011233B1 (en) 2015-05-15 2015-05-15 Automatic positioning method and equipment for scanning probe microscopy and in situ optical spectroscopy

Publications (2)

Publication Number Publication Date
BR102015011233A2 true BR102015011233A2 (en) 2018-06-05
BR102015011233B1 BR102015011233B1 (en) 2022-03-15

Family

ID=62845777

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102015011233-5A BR102015011233B1 (en) 2015-05-15 2015-05-15 Automatic positioning method and equipment for scanning probe microscopy and in situ optical spectroscopy

Country Status (1)

Country Link
BR (1) BR102015011233B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828124A (en) * 2019-03-27 2019-05-31 西南交通大学 A kind of wide adjustable multiprobe scanning probe device of focal height for matching laser head

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828124A (en) * 2019-03-27 2019-05-31 西南交通大学 A kind of wide adjustable multiprobe scanning probe device of focal height for matching laser head
CN109828124B (en) * 2019-03-27 2023-09-22 西南交通大学 Multi-probe scanning detection device with wide laser head and adjustable focusing height

Also Published As

Publication number Publication date
BR102015011233B1 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
US10890439B2 (en) Generation of one or more edges of luminosity to form three-dimensional models of objects
EP3374817B1 (en) Autofocus system for a computational microscope
Hore et al. Finding contours of hippocampus brain cell using microscopic image analysis
Kervrann et al. A guided tour of selected image processing and analysis methods for fluorescence and electron microscopy
Rajagopalan et al. A comprehensive shape analysis pipeline for stereoscopic measurements of particulate populations in suspension
CN105574527B (en) A kind of quick object detecting method based on local feature learning
Faridi et al. An automatic system for cell nuclei pleomorphism segmentation in histopathological images of breast cancer
CN105835507A (en) Method for attaching mobile phone cover lens to liquid crystal display
JP6726687B2 (en) Particle analyzer and particle analysis method
Sahay et al. Dealing with parallax in shape-from-focus
CN107782744A (en) A kind of eyeglass defect automatic detection device of Grating Modulation
CN115068082A (en) Electrode implantation method and system based on machine vision
BR102015011233A2 (en) AUTOMATIC POSITIONING METHOD AND EQUIPMENT FOR IN SITU PROBE SCANNING AND OPTICAL SPECTROSCOPY
CN107144520B (en) Particle imaging chamber and focusing system for microscopic imaging particle analysis
CN110533670A (en) A kind of striation dividing method based on subregion K-means algorithm
CN109785375A (en) Distance detection method and device based on 3D modeling
Murawski et al. Studying the influence of object size on the range of distance measurement in the new Depth From Defocus method
CN112648920B (en) Mask opening size measuring method, mask plate stretching device and screen expanding machine
KR101563799B1 (en) Method for estimating relative depth using focus measure
Fan et al. A depth estimation method based on geometric transformation for stereo light microscope
Mohanty et al. Stereo holographic diffraction based tracking of microrobots
Mallick et al. Real-Time, Automated, Multiobjective, Cloud Computing Whole Slide Imaging Device
BR102017007917A2 (en) automatic positioning method for mounting probes for in situ optical scanning and spectroscopy and device
Cui Robust micro/nano-positioning by visual servoing
Gao et al. Kalman filter based vision-servoing alignment system for human ear surgery

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06V Preliminary requirement: patent application procedure suspended [chapter 6.22 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 15/05/2015, OBSERVADAS AS CONDICOES LEGAIS.

B25C Requirement related to requested transfer of rights

Owner name: UNIVERSIDADE FEDERAL DE MINAS GERAIS (BR/MG)

Free format text: A FIM DE ATENDER A TRANSFERENCIA DE PARTE DOS DIREITOS, REQUERIDA ATRAVES DA PETICAO NO 870210073031 DE 10/08/2021, E NECESSARIO APRESENTAR DOCUMENTO QUE COMPROVE QUE O REPRESENTANTE DA CEDENTE TEM PODERES PARA REALIZAR TAL ATO. ALEM DISSO, E PRECISO APRESENTAR A GUIA DE CUMPRIMENTO DE EXIGENCIA.

B25A Requested transfer of rights approved

Owner name: UNIVERSIDADE FEDERAL DE MINAS GERAIS (BR/MG) ; IVISION SISTEMAS DE IMAGEM E VISAO S.A (BR/MG)