BR102015003962B1 - Método e sistema para a detecção em tempo real de um objeto - Google Patents

Método e sistema para a detecção em tempo real de um objeto Download PDF

Info

Publication number
BR102015003962B1
BR102015003962B1 BR102015003962-0A BR102015003962A BR102015003962B1 BR 102015003962 B1 BR102015003962 B1 BR 102015003962B1 BR 102015003962 A BR102015003962 A BR 102015003962A BR 102015003962 B1 BR102015003962 B1 BR 102015003962B1
Authority
BR
Brazil
Prior art keywords
path
image
images
reference map
successive images
Prior art date
Application number
BR102015003962-0A
Other languages
English (en)
Other versions
BR102015003962A2 (pt
Inventor
Arturo Flores
Kyungnam Kim
Yuri Owechko
Original Assignee
The Boeing Company
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by The Boeing Company filed Critical The Boeing Company
Publication of BR102015003962A2 publication Critical patent/BR102015003962A2/pt
Publication of BR102015003962B1 publication Critical patent/BR102015003962B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

método e sistema para a detecção em tempo real de um objeto. um sistema e um método para a detecção em tempo real de um objeto móvel sobre um trajeto do percurso em uma área geográfica são fornecidos. o sistema e o método também podem ser usados para rastrear tal objeto móvel em tempo real. o sistema inclui um dispositivo de captura de imagem para capturar imagens sucessivas de uma área geográfica, um mapa de referência geográfica que compreende informação contextual da área geográfica, e um processador configurado para calcular as diferenças entre imagens sucessivas para detectar, em tempo real, um objeto móvel no trajeto do percurso. o método inclui capturar imagens sucessivas da área geográfica, utilizando o dispositivo de captura de imagem, geo-registrando pelo menos algumas das imagens sucessivas em relação ao mapa de referência geográfica, e calcular as diferenças entre as imagens sucessivas para detectar, em tempo real, um objeto.

Description

CAMPO DA INVENÇÃO
[001] A presente invenção diz respeito à detecção em tempo real de um objeto móvel de interesse em um trajeto de percurso, e redução de falsos alarmes e detecções perdidas. A presente invenção também pode ser utilizada para rastrear um objeto móvel desse tipo em tempo real.
FUNDAMENTOS
[002] São conhecidos sistemas da técnica anterior para detectar e rastrear um objeto de interesse que percorre no trajeto, tal como um trajeto de percurso, empregando rastreamento por vídeo. Muitos de tais sistemas, no entanto, são limitados em sua precisão de detectar um objeto em tempo real, devido a artefatos ambientais e qualidade de imagem resultante de efeitos da iluminação sobre o objeto de interesse. Como resultado, sistemas atuais não podem rastrear adequadamente um objeto de interesse em certos ambientes.
[003] Jiangjian Xiao et al: “Detecção e rastreamento de veículo em vídeo aéreo com amplo campo de visão”, 2010 conferência IEEE sobre visão computacional e reconhecimento de padrão (CVPR), 13-18 de junho de 2010, São Francisco, CA, EUA, IEEE, Piscataway, NJ, EUA, é um exemplo de um rastreamento de veículos em vídeos aéreos de baixa taxa de quadros que usa uma abordagem de subtração em três-quadros, com base em um modelo de comportamento e abordagem de correspondência gráfica.
[004] Shih-Ming Huang et al: “Registro de imagem entre sequência de imagens UAV e imagem via satélite do Google sob incompatibilidade de qualidade”,ITS Telecommunications (ITST), 2012 12a conferência IEEE internacional, 5 de novembro de 2012, descreve uma variante normalizada de informações mútuas para problema de incompatibilidade de qualidade, usada no registro entre a imagem de UAV e a imagem via satélite do Google SUMÁRIO
[005] Um sistema e um método para detecção em tempo real de um objeto móvel sobre um trajeto do percurso em uma área geográfica são fornecidos. O sistema e o método também podem ser usados para rastrear tal objeto móvel em tempo real. O sistema inclui um dispositivo de captura de imagem para capturar imagens sucessivas de uma área geográfica, um mapa de referência geográfica que compreende informação contextual da área geográfica, e um processador configurado para calcular diferenças entre imagens sucessivas para detectar, em tempo real, um objeto móvel no trajeto do percurso. O método inclui capturar imagens sucessivas da área geográfica, utilizando o dispositivo de captura de imagem, geo-registrando pelo menos algumas das imagens sucessivas em relação ao mapa de referência geográfica, e calcular diferenças entre as imagens sucessivas para detectar, em tempo real, um objeto.
[006] Além disso, a descrição compreende formas de realização de acordo com as cláusulas seguintes: Cláusula 1. Um método para a detecção em tempo real de um objeto compreendendo: capturar imagens sucessivas de uma área geográfica contendo pelo menos um trajeto do percurso usando um dispositivo de captura de imagem; geo-registrar pelo menos algumas das imagens sucessivas em relação a um mapa de referência geográfica, o mapa de referência geográfica que compreende informação contextual da área geográfica; e calcular diferenças entre as imagens sucessivas para detectar, em tempo real, um objeto.
[007] Cláusula 2. O método da cláusula 1, em que uma primeira imagem das imagens sucessivas é manualmente geo-registrada.
[008] Cláusula 3. O método da cláusula 1, que compreende adicionalmente a obtenção de imagens da área geográfica incluindo um trajeto do percurso.
[009] Cláusula 4. O método da cláusula 1, em que a informação contextual é metadados do trajeto do percurso.
[0010] Cláusula 5. O método da cláusula 1, em que o trajeto do percurso é uma estrada.
[0011] Cláusula 6. O método da cláusula 1, em que o dispositivo de captura de imagem é posicionado em um veículo aéreo.
[0012] Cláusula 7. O método da cláusula 1, em que as sucessivas imagens são geradas por capturar pelo menos uma sequência de vídeo da área geográfica, e compreender adicionalmente a separação da sequência de vídeo para as imagens sucessivas.
[0013] Cláusula 8. O método da cláusula 1, em que a homografia planar é usada para geo-registrar as imagens sucessivas uma em relação à outra no mapa de referência.
[0014] Cláusula 9. O método da cláusula 1, que compreende adicionalmente utilizar a informação contextual para suprimir falsas detecções de mover objetos fora de um trajeto do percurso.
[0015] Cláusula 10. O método da cláusula 1, que compreende ainda utilizar a informação contextual para detectar um objeto móvel em um trajeto do percurso.
[0016] Cláusula 11. O método da cláusula 1, que compreende ainda reduzir erros no geo-registro adicionando um geo-registro adicional de uma das referidas imagens sucessivas em relação ao mapa de referência.
[0017] Cláusula 12. O método da cláusula 1, incluindo adicionalmente rastrear a posição do objeto móvel.
[0018] Cláusula 13. Um sistema para detecção em tempo real de um objeto móvel sobre um trajeto do percurso em uma área geográfica que compreende: um dispositivo de captura de imagem para capturar imagens sucessivas de uma área geográfica; um mapa de referência geográfica que compreende informação contextual da área geográfica; e um processador configurado para calcular diferenças entre imagens sucessivas para detectar, em tempo real, um objeto móvel no trajeto do percurso.
[0019] Cláusula 14. O sistema da cláusula 13, em que o referido dispositivo de captura de imagem é uma câmera de vídeo.
[0020] Cláusula 15. O sistema da cláusula 14, em que o referido mapa de referência geográfica é um mapa que incorpora metadados.
[0021] Cláusula 16. O sistema da cláusula 14, em que o referido objeto móvel é um veículo e referido trajeto do percurso é uma estrada.
[0022] Cláusula 17. O sistema da cláusula 13, em que o dispositivo de captura de imagem é montado sobre uma plataforma aérea em um veículo transportado por via aérea.
[0023] Cláusula 18. O sistema da cláusula 17, em que o veículo transportado por via aérea é não tripulado.
[0024] Cláusula 19. O sistema da cláusula 13, em que o mapa de referência geográfica é alojado em um servidor remoto a partir do processador.
[0025] Cláusula 20. O sistema de cláusula 13, em que o processador adicionalmente configurado para rastrear a posição do objeto móvel.
[0026] O escopo da presente invenção é definido apenas pelas reivindicações anexas e não é afetado pelas declarações dentro deste sumário.
BREVE DESCRIÇÃO DOS DESENHOS
[0027] A invenção pode ser mais bem compreendida com referência aos seguintes desenhos e descrição. Os componentes nas figuras não estão necessariamente para escala, a ênfase à por sua vez colocada na ilustração dos princípios da invenção. A FIG. 1 é um diagrama de blocos do sistema que incorpora as características da presente invenção; A FIG. 2 é um diagrama de blocos de um dispositivo de captura de imagem usado no sistema da invenção; A FIG. 3 é um diagrama de blocos de um processador usado no sistema da invenção; As FIGS. 4A-4D são desenhos lineares que mostram um mapa de referência e imagens captadas pelo dispositivo de captura de imagem no sistema da invenção; A FIG. 5 são desenhos lineares que mostram como as imagens são geo-registradas para o mapa de referência usando homografia planar no sistema da invenção; A FIG. 6A e 6B são desenhos lineares com fluxogramas associados que mostram as etapas utilizadas no presente método; As Figs. 7A-7C mostram um exemplo de uma detecção de objeto móvel da presente invenção; A FIG. 8A mostra uma detecção de objeto móvel sem usar metadados de trajeto de percurso; e A FIG. 8B mostra uma detecção de objeto móvel utilizando metadados de trajeto de percurso de acordo com a presente invenção.
DESCRIÇÃO DETALHADA
[0028] Embora a invenção possa ser susceptível à forma de realização em várias formas, que é mostrada nos desenhos, e aqui será descrita em detalhes, uma forma de realização específica para detectar um objeto móvel de interesse em um trajeto de percurso usando um dispositivo de captura de imagem montado sobre uma estrutura aérea, tal como um veículo aéreo não tripulado (UAV), uma plataforma aérea ou um veículo pilotado, com o entendimento de que a presente descrição é para ser considerada uma exemplificação dos princípios da invenção, e não se destina a limitar a invenção como ilustrada e descrita aqui. Portanto, a menos que indicado de outra forma, as características aqui descritas podem ser combinadas em conjunto para formar combinações adicionais que não foram mostradas de outra forma, para fins de brevidade.
[0029] Um sistema e um método para geo-registro e detecção de objeto móvel dentro do contexto ao longo de um trajeto de percurso, usando imagens captadas de uma localização aérea, para melhorar a detecção de um objeto móvel em um trajeto do percurso, e reduzir falsos alarmes e detecções perdidas. O sistema e o método também podem ser usados para rastrear tal objeto móvel. O método pode ser realizado em tempo real. Através da combinação de informação de geo-registro com metadados de trajeto de percurso fornecido por um sistema de mapeamento global, a precisão do sistema pode ser aumentada através da técnica anterior.
[0030] Como ilustrado pelo diagrama de blocos na FIG. 1, o sistema compreende um dispositivo de captura de imagem 20, tal como uma câmera, para gerar imagens digitais de uma área geográfica que pode conter pelo menos um trajeto de percurso, uma estrutura aérea 22, tal como uma plataforma de veículo aéreo não tripulado (UAV) ou em um veículo pilotado, tal como um helicóptero, para montar o dispositivo de captura de imagem 20, um processador 24 tendo software no mesmo em comunicação com o dispositivo de captura de imagem 20 e capaz de processar imagens do dispositivo de captura de imagem 20, uma interface de usuário 26 em comunicação com o processador 24, e um servidor 28 que aloja os metadados do trajeto do percurso do sistema de mapeamento global e que está em comunicação com o processador 24.
[0031] O dispositivo de captura de imagem 20 é configurado para capturar imagens digitais tais como fotografias ou um vídeo de objetos, tais construções, vegetação e veículos, etc., dispostos dentro do campo de visão do dispositivo de captura de imagem 20. O dispositivo de captura de imagem 20 é comunicativamente conectado ao processador 24. O dispositivo de captura de imagem 20 inclui captura componente óptico de dispositivo de captura de imagem 30, uma unidade de captura de imagem 32 e uma interface de comunicação 34. O componente óptico de dispositivo de captura de imagem 30 compreende lentes e outros componentes ópticos, e é acoplado comunicativamente com a unidade de captura de imagem 32. A unidade de captura de imagem 32 transfere imagens para a interface de comunicação 34 que então transfere as imagens para o processador 24.
[0032] O processador 24 e o servidor 28 estão acoplados em conjunto para transmitir informação entre os mesmos. A informação é enviada para e recebida do servidor 28, isto é, através de uma rede de comunicação, tal como uma rede de área local, uma rede de área ampla, uma rede com fio e/ou uma rede sem fio, etc. O servidor 28 pode ser de bordo em relação à estrutura aérea 22 ou pode ser de base terrestre.
[0033] O processador 24 pode estar de bordo em relação à estrutura aérea 22, ou pode ter base terrestre. Se o processador 24 tiver base terrestre, o dispositivo de captura de imagem 20 pode enviar imagens ao processador 24 via sinais sem fio. O processador 24 processa informação de imagem a partir do dispositivo de captura de imagem 20 e a partir do servidor 28 e inclui uma unidade de processamento central (CPU) ou processador de sinal digital (DSP) e memória 38. O CPU/DSP 36 está acoplado à memória 38 que inclui memória de acesso aleatório (RAM) e memória somente leitura (ROM). A memória 38 não é transitória e armazena código de software executável por máquina e legível por máquina 40 contendo instruções que são configurados para, quando executado, fazer com que o CPU/DSP 36 execute várias funções aqui descritas. O processador 24 analisa a informação a partir da unidade de captura de imagem 32 para produzir imagens que podem ser exibidas no visor da interface de usuário 26 e que pode ser impresso utilizando a impressora da interface de usuário 26 e analisado pelo usuário.
[0034] A interface de usuário 26 inclui um dispositivo de entrada, como um teclado, um visor e alto-falantes para fornecer informações de vídeo e de áudio para um usuário e para permitir que o usuário introduza parâmetros de entrada ao processador 24. A interface de usuário 26 pode também incluir uma impressora para imprimir imagens capturadas pelo sistema.
[0035] Os sistemas de mapeamento global, por exemplo o Google Maps, Bing Maps ou qualquer outro sistema de mapeamento global adequado que utiliza informação de geoposicionamento, fornece metadados de trajeto de percurso extensivo para uso por terceiros. Os metadados do trajeto do percurso fornecem, entre outros itens, informação contextual considerando a localização de trajetos de percurso, tais como estradas, hidrovias e/ou trilhas para caminhada, e estruturas, como construções, vegetação e outros objetos potencialmente interferentes, próximos aos trajetos de percurso. Estes metadados do trajeto do percurso podem ser fornecidos como mapas de referência a terceiros. Um exemplo de desenho linear de tal mapa de referência 42 é mostrado na FIG. 4A mostrando trajetos do percurso, por exemplo, as estradas neste mapa de referência particular, em uma área geográfica. Os trajetos de percurso são mostrados em linhas sombreadas na figura. 4B. A informação de mapeamento pode ser obtida on-line, por exemplo, via uma conexão por Internet, e/ou off-line, por exemplo, via mídia de armazenamento, por exemplo, disco elétrico, magnético ou óptico. Estes metadados de trajeto de percurso e seus mapas de referência associados podem ser alojados no servidor 28. Alternativamente, estes metadados de trajeto de percurso e seus mapas de referência associados podem ser alojados no processador 24.
[0036] Uma pluralidade de imagens digitais, tais como fotografias ou uma sequência de vídeo podem ser tomadas pelo dispositivo de captura de imagem 20. As imagens podem então ser transmitidas ao processador 24 para processamento. Em uma forma de realização onde são tiradas fotografias, o processador 24 pode ser configurado para separar as fotografias em imagens individuais 44a, 44b, 44c, etc. Em uma forma de realização onde o vídeo é feito, o processador 24 pode ser configurado para separar a sequência de vídeo em imagens individuais 44a, 44b, 44c etc.
[0037] O processador 24 pode ser configurado para acessar o servidor de 28 para obter um mapa de referência apropriado 42, ver FIG. 4A, contendo informação de geo-registro. O processador 24 pode ser configurado para comparar as imagens do dispositivo de captura de imagem 20 com o mapa de referência 42. O processador 24 pode, em seguida, georegistrar as imagens para o mapa de referência utilizando a correspondência de recursos de imagem e homografia planar.
[0038] Durante o processo de geo-registro, a primeira imagem 44a pode ser registrada manualmente ao mapa de referência 42 pelo usuário de introduzindo a informação de registro ao processador 24 via a interface de usuário 26. Alternativamente, o processador 24 pode ser configurado para registar 44a a primeira imagem 44a para o mapa de referência 42 de uma maneira automática usando entradas, tais como GPS e/ou sensores inerciais incorporados no dispositivo de captura de imagem 20. Nos presentes sistema e método, assume-se que existe um plano dominante nas imagens 44a, 44b, 44c, etc. e o mapa de referência 42, daí, o processador 24 pode ser configurado para usar homografia planar para alinhar a imagens 44a, 44b, 44c etc. para o mapa de referência 42.
[0039] A seguir, H0,Mé a homografia que alinha a primeira 44a imagem para o mapa de referência 42. Dado o registro da primeira imagem 44a, imagens subsequentes 44b, 44c. . . são geo-registradas como se segue. It é definida como a imagem capturada pelo dispositivo de captura de imagem no tempo t, e It+1é definida como imagem subsequente. Como mostrado na FIG. 6A, o registro de imagem para imagem realizado de um modo conhecido por extrair descritores por Transformada de Característica invariante para escala (SIFT), ou outros descritores conhecidos, a partir das imagens em ambas as imagens (a imagem atual que sendo analisada e a imagem anterior já analisada). Um conjunto inicial de correspondências é obtido combinando descritores de SIFT a partir das imagens em ambas as imagens através do seu vizinho mais próximo no espaço Euclidiano. Estas correspondências putativas contêm muitas combinações incorretas, estas são suprimidas por meio de métodos conhecidos, como o consenso de amostra aleatório (RANSAC, descrito por Fischler, e Bolles, Comm. Do ACM, Vol. 24, pp 381-395., 1981), ou outro método para estimar parâmetros de um modelo matemático de um conjunto de dados observados, que contém anexos, que também fornece Ht +1,t, que é a homografia que alinha It +1 com It. Como um resultado, a imagem subsequente I t + 1é geo-registrada via o produto Ht+1,t Ht,t-1 Ht -1t-2 . . . H1,0 H0,M ou mais simplesmente .. O processador 24 pode ser configurado para geo-registrar cada imagem sucessiva, ou pode ser configurado para geo-registrar predeterminadas imagens das imagens (por exemplo, algumas imagens sucessivas são ignoradas).
[0040] O método acima pode apresentar pequenos erros em cada computação por homografia, cujos erros se acumulam ao longo do tempo e podem resultar em imagens desalinhadas depois de algum tempo. Estes erros são mitigados por refinação do registro de imagem para imagens com uma imagem adicional para referenciar registro de mapa. No tempo t, presume-se que a imagem a ser geo-registrada esteja dentro de um pequeno limite de erro. O geo-registro é refinado combinando pontos de interesse no mesmo e no mapa de referência 42 via de informação mútua dos remendos de imagem. A informação mútua é uma medida da sobreposição de informações entre dois sinais, ou o quanto o conhecimento de um sinal pode fornecer conhecimento do segundo sinal. A informação mútua é robusta e útil, pois só é sensível ao fato de um sinal mudar quando o outro sinal não muda para seus valores relativos. Uma vez que o mapa de referência 42 e a imagem a ser analisados foram tomados em momentos diferentes, podem existir fatores de complicação tais como horas diferentes do dia, diferentes condições climáticas, etc. juntamente com o fato de que a imagem a ser analisada pode ter sido tomada em um diferente ângulo do que a imagem no mapa de referência 42. A informação mútua ajuda para mitigar estes fatores complicadores. Como resultado, o acúmulo de erros e geo-registro "deriva"são anulados.
[0041] Um exemplo de uma sequência de vídeo geo-registrada pode ser visto nas Figs. 4A-4D. A FIG. 4A mostra o mapa de referência 42. A FIG. 4B mostra a primeira imagem 44a registrada ao mapa de referência 42. As FIGs. 4C e 4D mostram imagens subsequentes 44b, 44c registradas no mapa de referência 42. Os trajetos de percurso são mostrados na linha sombreada utilizando metadados de trajeto de percurso obtidos a partir do mapa de referência 42.
[0042] Uma vez que as imagens etc. são geo-registradas, o processador 24 pode ser configurado para utilizar os metadados do trajeto do percurso a partir do mapa de referência 42 como contexto adicional para a detecção de um objeto móvel 46 de interesse, por exemplo um veículo, nas imagens 44a, 44b, 44c etc. A detecção de objeto móvel é realizada pelo processador 24 pelo cálculo de diferenças em imagens consecutivas, por exemplo, 44a e 44b, depois de terem sido geo-registradas para a imagem de referência 42 usando subtração de referência grosseira. É definida como a imagem de referência 42, em seguida, as imagens It-k, It-(k-1),. . . It-1, It+2,. . . , It+ksão registradas utilizando It como o sistema de coordenadas de referência. O quadrado da diferença em pixel é então acumulado entre a imagem de referência 42 e todas as outras imagens 44a, 44b, 44c, em outras palavras,
Figure img0001
, tipicamente k=2. O pressuposto é que uma vez que todas as imagens 44a, 44b, 44c estão registradas para a imagem de referência 42, os objetos estacionários e a referência cancelarão um ao outro na operação do quadrado da diferença, enquanto um objeto móvel 46 se destacará. Um limiar de sensibilidade T é aplicado à imagem de diferença acumulada para produzir uma imagem binária B em que
Figure img0002
o de outra maneira
[0043] Na fig. 6B, uma vez que a imagem de diferença é calculada, o processador 24 é configurado para executar a operação limiar da imagem de diferença acumulada com base nas regiões rotuladas no mapa, o que resulta em regiões de imagem segmentadas que representam objetos que se movem mais rapidamente do que uma determinada velocidade em relação à referência. Ao variar o limiar T, a sensibilidade ao movimento pode ser feita dependente da região do mapa rotulada que contém as regiões de imagens segmentadas. Por exemplo, um limiar de sensibilidade inferior é utilizado para mover um objeto móvel candidato no trajeto do percurso versus um objeto móvel candidato fora do trajeto do percurso. Em seguida, o processador 24 pode ser configurado para detectar as regiões da imagem segmentadas como objetos com limiar de decisão variável com base nas regiões do mapa rotulados. Daí em diante, o processador 24 pode ser configurado de modo a formar rastros, por exemplo, utilizando um filtro de Kalman em um modo conhecido, ou outro rastreador conhecido adequado. Como etapa final, o processador 24 pode ser configurado para emitir os rastros e as detecções de objeto para o usuário.
[0044] Um exemplo do processo de detecção e de rastreamento de objeto móvel é fornecido nas FIGS. 7A-7C. A FIG. 7A mostra a imagem de diferença acumulada. A FIG. 7B mostra as regiões segmentadas após o processamento da imagem de diferença acumulada da FIG. 7A, por exemplo, com operações morfológicas e limiares. Tais operações morfológicas são bem conhecidas na técnica. A FIG. 7C mostra os resultados de rastreamento de objeto. Cada objeto rastreado de interesse 46 pode ser representado por uma elipse ajustada, isto é, uma elipse de uma cor específica. Um histórico de localizações anteriores do objeto rastreado de interesse 46 pode ser como mostrado como pontos traseiros da mesma cor.
[0045] Além disso, uma vez que as imagens etc. são registradas, o processador 24 pode ser configurado para usar os metadados de trajeto de percurso para suprimir alarmes falsos para detecções que não estão em um trajeto do percurso. Uma vez que for detectado um objeto móvel de interesse 46, o método realiza as etapas da FIG. 6B que utiliza metadados de trajeto de percurso para filtrar os falsos alarmes e melhorar falhas na detecção. A taxa de alarme falso é reduzida usando apenas o trajeto de metadados (reduzindo a área de busca), porque o número de falsos alarmes por imagem é aproximadamente proporcional à área de busca. Se a área de busca for reduzida utilizando metadados de trajeto de percurso, então a taxa de alarme falso vai diminuir, enquanto a taxa de detecção de um objeto móvel permanecerá inalterada. Se o limiar de sensibilidade for reduzido, a taxa de detecção de um objeto móvel e aumentará a taxa de alarme falso também irá aumentar do valor que foi reduzido usando metadados de trajeto do percurso. Por exemplo, o limiar de sensibilidade pode ser reduzido de modo que a taxa de alarme falso é inalterada em relação à taxa sem metadados. A taxa de detecção, então, ser maior, devido ao valor limiar de sensibilidade mais baixos. A taxa de alarme falso pode ser mantida constante através da redução do limiar de sensibilidade e reduzir a área de busca. Neste método, a imagem de diferença acumulada é limitada e convertida em uma imagem binária. Se a área de busca é reduzida, a taxa de alarme falso é mantida constante através de uma redução do limiar de sensibilidade.
[0046] O usuário define o limiar de sensibilidade T no processador 24 para a detecção de um objeto de interesse 46. O limiar de sensibilidade T pode ser definido, por exemplo, pelo usuário definindo um nível predeterminado de contraste nas imagens entre o objeto móvel e a estrutura que o objeto móvel está, ou pode ser definido, por exemplo, pelo usuário definindo uma contagem de pixel predeterminada para o objeto móvel. O limiar de sensibilidade T pode ser definido mais baixo nas regiões em que um trajeto do percurso está localizado, cujas regiões são conhecidas a partir do mapa de referência 42, e superior em qualquer região que não seja o trajeto de percurso. Por exemplo, o processador 24 pode ser configurado para reconhecer que um objeto móvel é mais escuro do que o trajeto do percurso ou as construções nas imagens, e/ou o processador 24 pode ser configurado para reconhecer que um objeto móvel é mais leve do que o trajeto de percurso nas imagens ou nas construções. Ou, por exemplo, o processador 24 pode ser configurado para reconhecer que um objeto móvel tem uma contagem de pixel superior ao trajeto do percurso. Se, no entanto, o usuário define o limiar de sensibilidade T muito baixo (que requer uma pequena quantidade de contraste ou pequena diferença em contagem de pixels entre o objeto móvel e a estrutura que o objeto móvel está), que pode resultar em um número inaceitável de alarmes falsos, porque muitos objetos irão satisfazer esta definição. Se, no entanto, o usuário define o limiar de sensibilidade T demasiadamente alto (o que requer uma grande quantidade de contraste ou em grande diferença em contagem de pixels entre o objeto móvel e a estrutura que o objeto móvel está), o que pode resultar em detecções perdidas por causa de objetos na sobra de uma construção não mostrarão um alto nível de contraste entre o objeto móvel e o trajeto do percurso ou uma grande diferença na contagem de pixel. Na presente invenção, uma vez que os metadados do trajeto do percurso são utilizados pelo processador 24 como contexto, os alarmes falsos são suprimidos em áreas fora do trajeto de percurso. Ao mesmo tempo, as detecções perdidas no trajeto do percurso são reduzidas porque o limiar de sensibilidade mais baixo é utilizado no processo de detecção de objeto móvel no trajeto do percurso. Um limiar de sensibilidade menor aumenta eficazmente a sensibilidade do processo de detecção de objeto móvel. Nos exemplos mostrados nas Figs. 7A a 8B, o pressuposto é que o objeto móvel de interesse 46 a ser detectado é um veículo que está tipicamente no trajeto do percurso, e não tipicamente fora do trajeto do percurso.
[0047] As Figs. 8A e 8B ilustram algumas das dificuldades que podem ser encontradas durante o processamento de imagens 44a, 44b, 44c feitas em um ambiente urbano. As construções altas e a vegetação não estão no plano da terra e, portanto, não podem ser alinhadas usando a homografia planar. Como resultado, a operação do quadrado da diferença pode introduzir falsos alarmes e detecções perdidas, tais como vistos na fig. 8A. Um alarme falso pode resultar de um objeto móvel, em que as imagens não estão no trajeto de percurso. A detecção perdida pode surgir quando um objeto móvel de interesse está na sombra de uma construção alta e não é facilmente detectado pelo dispositivo de captura de imagem 20 e pelo processador 24. Ao utilizar os metadados de trajeto de percurso como contexto adicional, tais falsos alarmes e detecção perdida são mitigados pelo uso do método na Fig. 6B.
[0048] Como descrito acima, os metadados do trajeto do percurso podem também ser utilizados para aumentar a sensibilidade do processo de detecção de objeto móvel em áreas no interior do trajeto do percurso. Como visto na FIG. 8A, um veículo móvel não é detectado na sombra da construção alta. Isto é devido ao baixo contraste da imagem na área. Ao baixar o limiar de sensibilidade do processo de detecção nas regiões onde um trajeto de percurso está localizado, este veículo móvel é detectado.
[0049] Uma vez que um objeto móvel de interesse 46 é detectado, o processador 24 pode ser configurado para rastrear a localização do objeto móvel 46 de interesse ao longo do tempo. Alternativamente, uma vez que um objeto móvel de interesse 46 for detectado, o usuário pode introduzir instruções para o processador 24 através da interface de usuário 26 para rastrear aquele objeto móvel específico de interesse 46. O processador 24 pode ser configurado para detectar um objeto móvel 46 de interesse nas imagens sucessivas 44a, 44b, 44c pela aparência, localização, velocidade, etc.
[0050] Uma vez que a imagens 44a, 44b, 44c são geo-registradas, o objeto móvel detectado de interesse 46 tem geocoordenadas precisas. Isto permite que um usuário para detectar facilmente e rastrear o objeto móvel de interesse 46.
[0051] A presente invenção pode ser usada para detectar e rastear vários objetos móveis de interesse nas imagens 44a, 44b, 44c. Estes vários objetos móveis de interesse podem ser no mesmo trajeto de percurso nas imagens 44a, 44b, 44c. Alternativamente, um ou mais dos vários objetos móveis de interesse podem estar em um trajeto de percurso na imagens 44a, 44b, 44c, e outro um ou mais dos vários objetos móveis de interesse podem ser um trajeto de percurso diferente na imagens 44a, 44b , 44c, etc.
[0052] Embora os aspectos particulares da presente invenção aqui descritos terem sido mostrados e descritos, será evidente para os peritos na técnica que, com base nos ensinamentos aqui contidos, mudanças e modificações podem ser feitas sem se afastarem do assunto descrito aqui e os seus aspectos gerais e, por conseguinte, as reivindicações anexas são para incluir no seu âmbito todas essas alterações e modificações que estão dentro do verdadeiro espírito e âmbito do assunto aqui descrito. Além disso, é para ser entendido que a invenção é definida pelas reivindicações anexas. Consequentemente, a invenção não é para ser limitada, exceto em conta as reivindicações anexas e seus equivalentes.

Claims (14)

1. Método para a detecção em tempo real de um objeto (46), o qual compreende: capturar imagens sucessivas (44a, 44b, 44c) de uma dada área geográfica contendo pelo menos um trajeto de percurso usando um dispositivo de captura de imagem (20); geo-registrar pelo menos algumas daquelas imagens sucessivas (44a, 44b, 44c) em relação a um mapa de referência geográfica (42), tal mapa de referência geográfica (42) compreendendo informação contextual da área geográfica fornecida por metadados de trajeto de percurso; e caracterizadopor dito método compreender adicionalmente: calcular quadrado da diferença em pixel acumulado (Diff) entre uma imagem de referência (It, 44a) e todas as outras imagens (It-1, It-2, It+1, It+2, 44a, 44b, 44c), produzir uma imagem binária (B) aplicando-se um limiar de sensibilidade (T) à imagem de diferença acumulada, que varia com base em regiões rotuladas no mapa de referência (42), o que resulta em regiões de imagens segmentadas que representam objetos se movendo mais rapidamente do que uma predeterminada velocidade em relação à referência, usar os metadados de trajeto de percurso a partir do mapa de referência (42) como contexto adicional para suprimir falsas detecções dos objetos (46) se movendo fora de um trajeto de percurso.
2. Método de acordo com a reivindicação 1, caracterizadopelo fato de que uma primeira imagem (44a) das imagens sucessivas (44a, 44b, 44c) é manualmente geo-registrada.
3. Método de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o trajeto de percurso é uma estrada.
4. Método de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que o dispositivo de captura de imagem (20) está posicionado em um veículo aéreo.
5. Método de acordo com qualquer uma das reivindicações 1 a 4, caracterizado pelo fato de que as imagens sucessivas (44a, 44b, 44c) são geradas capturando-se pelo menos uma sequência de vídeo da área geográfica, e compreendendo ainda separar a sequência de vídeo nas imagens sucessivas (44a, 44b, 44c).
6. Método de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que homografia planar é usada para geo-registar as imagens sucessivas (44a, 44b, 44c), uma em relação à outra, no mapa de referência (42).
7. Método de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de compreender adicionalmente usar a informação contextual para detecção de um objeto (46) que se move sobre um trajeto de percurso.
8. Método de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que compreende adicionalmente reduzir erros no geo-registro adicionando-se um geo-registro adicional de uma das referidas imagens sucessivas (44a, 44b, 44c) em relação ao mapa de referência (42).
9. Sistema para a detecção em tempo real de um objeto que se move sobre um trajeto de percurso em uma área geográfica, compreendendo: um dispositivo de captura de imagem (20) que é para capturar imagens sucessivas (44a, 44b, 44c) de uma área geográfica; um mapa de referência geográfica (42) que compreende uma informação contextual da área geográfica fornecida por metadados de trajeto de percurso; e um processador (24), caracterizado por dito processador (24) ser configurado para: calcular quadrado da diferença em pixel acumulado (Diff) entre uma imagem de referência (It, 44a) e todas as outras imagens (It-1, It-2, It+1, It+2, 44a, 44b, 44c), produzir uma imagem binária (B) aplicando-se um limiar de sensibilidade (T) à imagem de diferença acumulada, que varia com base em regiões rotuladas no mapa de referência (42), o que resulta em regiões de imagens segmentadas que representam objetos se movendo mais rapidamente do que uma predeterminada velocidade em relação à referência, usar os metadados de trajeto de percurso a partir do mapa de referência (42) como contexto adicional para suprimir falsas detecções dos objetos (46) se movendo fora de um trajeto de percurso.
10. Sistema de acordo com a reivindicação 9, caracterizado por dito dispositivo de captura de imagem (20) ser uma câmera de vídeo.
11. Sistema de acordo com a reivindicação 9 ou reivindicação 10, caracterizado por dito objeto (46) que se move ser um veículo e tal trajeto de percurso ser uma estrada.
12. Sistema de acordo com a reivindicação 10 ou reivindicação 11, caracterizado pelo fato de o dispositivo de captura de imagem (20) estar montado sobre uma plataforma aérea em um veículo aéreo.
13. Sistema de acordo com qualquer uma das reivindicações 10 a 12, caracterizado pelo fato de que o veículo aéreo é não tripulado.
14. Sistema de acordo com qualquer uma das reivindicações 10 a 13, caracterizado pelo fato de que o mapa de referência geográfica (42) é alojado em um servidor (28) remoto do processador (24).
BR102015003962-0A 2014-04-08 2015-02-24 Método e sistema para a detecção em tempo real de um objeto BR102015003962B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/247,398 US9734399B2 (en) 2014-04-08 2014-04-08 Context-aware object detection in aerial photographs/videos using travel path metadata
US14/247398 2014-04-08

Publications (2)

Publication Number Publication Date
BR102015003962A2 BR102015003962A2 (pt) 2016-07-26
BR102015003962B1 true BR102015003962B1 (pt) 2021-06-01

Family

ID=52462808

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102015003962-0A BR102015003962B1 (pt) 2014-04-08 2015-02-24 Método e sistema para a detecção em tempo real de um objeto

Country Status (6)

Country Link
US (1) US9734399B2 (pt)
EP (1) EP2930686B1 (pt)
JP (1) JP6726932B2 (pt)
KR (1) KR102400452B1 (pt)
CN (1) CN104978390B (pt)
BR (1) BR102015003962B1 (pt)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101913086B1 (ko) 2011-01-12 2018-10-29 선 페이턴트 트러스트 동화상 부호화 방법 및 동화상 복호화 방법
KR101878008B1 (ko) 2011-03-03 2018-07-13 선 페이턴트 트러스트 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
JP2013055569A (ja) * 2011-09-06 2013-03-21 Sony Corp 撮像装置、情報処理装置、それらの制御方法、および、プログラム
US11080765B2 (en) * 2013-03-14 2021-08-03 Igor Gershteyn Method and system for data structure creation, organization and searching using basic atomic units of information
CA3004388C (en) * 2015-11-08 2024-02-13 Agrowing Ltd A method for aerial imagery acquisition and analysis
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
CN114510080A (zh) 2015-12-09 2022-05-17 深圳市大疆创新科技有限公司 用于控制无人飞行器的飞行的方法和系统
CN105512685B (zh) * 2015-12-10 2019-12-03 小米科技有限责任公司 物体识别方法和装置
US10670418B2 (en) * 2016-05-04 2020-06-02 International Business Machines Corporation Video based route recognition
US10054445B2 (en) * 2016-05-16 2018-08-21 Northrop Grumman Systems Corporation Vision-aided aerial navigation
IL248749B (en) 2016-11-03 2019-08-29 Dan El Eglick A system for looking at using several databases
US10560666B2 (en) * 2017-01-21 2020-02-11 Microsoft Technology Licensing, Llc Low-cost, long-term aerial imagery
US10209089B2 (en) 2017-04-03 2019-02-19 Robert Bosch Gmbh Automated image labeling for vehicles based on maps
CN108176049B (zh) * 2017-12-28 2021-05-25 珠海豹好玩科技有限公司 一种信息提示方法、装置、终端和计算机可读存储介质
US10445913B2 (en) * 2018-03-05 2019-10-15 Faro Technologies, Inc. System and method of scanning and editing two dimensional floorplans
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures
CN110349173B (zh) * 2019-07-15 2020-07-24 长光卫星技术有限公司 基于高分辨率遥感影像的地物变化监测方法
US11200671B2 (en) * 2019-12-31 2021-12-14 International Business Machines Corporation Reference image guided object detection in medical image processing
CN111619584B (zh) * 2020-05-27 2021-09-21 北京经纬恒润科技股份有限公司 一种无人驾驶汽车的状态监管方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
KR100489890B1 (ko) * 2002-11-22 2005-05-17 한국전자통신연구원 스테레오 비디오 또는/및 지리객체의 상세정보 제공 장치및 그방법
CA2729712C (en) * 2008-06-26 2014-12-30 Lynntech, Inc. Method of searching for a thermal target
US8842663B2 (en) * 2010-04-22 2014-09-23 Bae Systems Information And Electronic Systems Integration Inc. Situational awareness integrated network and system for tactical information and communications
US10645344B2 (en) 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
US20130021475A1 (en) * 2011-07-21 2013-01-24 Canant Ross L Systems and methods for sensor control
US8958945B2 (en) * 2012-02-07 2015-02-17 Ge Aviation Systems Llc System and methods for maintaining and operating an aircraft
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning

Also Published As

Publication number Publication date
US9734399B2 (en) 2017-08-15
CN104978390B (zh) 2020-11-03
CN104978390A (zh) 2015-10-14
EP2930686B1 (en) 2020-09-02
US20150286868A1 (en) 2015-10-08
JP2015201183A (ja) 2015-11-12
JP6726932B2 (ja) 2020-07-22
EP2930686A1 (en) 2015-10-14
KR20150116777A (ko) 2015-10-16
KR102400452B1 (ko) 2022-05-19
BR102015003962A2 (pt) 2016-07-26

Similar Documents

Publication Publication Date Title
BR102015003962B1 (pt) Método e sistema para a detecção em tempo real de um objeto
JP7221089B2 (ja) 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行
Ahmadi et al. Moving vehicle detection, tracking and traffic parameter estimation from a satellite video: A perspective on a smarter city
US9760996B2 (en) Non-rigid registration for large-scale space-time 3D point cloud alignment
JP6095018B2 (ja) 移動オブジェクトの検出及び追跡
US20190065885A1 (en) Object detection method and system
CN111220164A (zh) 定位方法、装置、设备及存储介质
CN110706258B (zh) 对象追踪方法及装置
US11068713B1 (en) Video-based intelligent road traffic universal analysis
KR20140009737A (ko) 하이브리드 맵 기반 로봇의 위치인식방법
US11069071B1 (en) System and method for egomotion estimation
WO2018207426A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111767853A (zh) 车道线检测方法和装置
Ramakrishnan et al. Adaptive window strategy for high-speed and robust KLT feature tracker
US20230015751A1 (en) Real-Time Alignment of Multiple Point Clouds to Video Capture
Ayadi et al. A parametric algorithm for skyline extraction
CN115359115A (zh) 一种动态环境下基于多传感器的同时定位与建图方法
Dong et al. Enabling surveillance cameras to navigate
Wang et al. Raillomer: Rail vehicle localization and mapping with LiDAR-IMU-odometer-GNSS data fusion
Duo et al. A robust and efficient airborne scene matching algorithm for UAV navigation
CN114993293B (zh) 室内弱纹理环境下移动无人系统同步定位与建图方法
Ma et al. Multi-sensor Analytic System Architecture for Maritime Surveillance
Wase Development of unmanned aerial vehicle for intelligent transportation
Wang et al. Four years of multimodal odometry and mapping on the rail vehicles
CN116071394A (zh) 二维码被动定位增强的室内物流机器人实时导航方法及系统

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 24/02/2015, OBSERVADAS AS CONDICOES LEGAIS.