BR112016024190B1 - Método para inspecionar uma carga em um contêiner, analisador e aparelho de identificação ou determinação de uma carga com base em textura - Google Patents

Método para inspecionar uma carga em um contêiner, analisador e aparelho de identificação ou determinação de uma carga com base em textura Download PDF

Info

Publication number
BR112016024190B1
BR112016024190B1 BR112016024190-8A BR112016024190A BR112016024190B1 BR 112016024190 B1 BR112016024190 B1 BR 112016024190B1 BR 112016024190 A BR112016024190 A BR 112016024190A BR 112016024190 B1 BR112016024190 B1 BR 112016024190B1
Authority
BR
Brazil
Prior art keywords
inspection
fragment
fragments
texture
optionally
Prior art date
Application number
BR112016024190-8A
Other languages
English (en)
Other versions
BR112016024190A2 (pt
Inventor
Najib GADI
Original Assignee
Smiths Heimann Sas
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smiths Heimann Sas filed Critical Smiths Heimann Sas
Publication of BR112016024190A2 publication Critical patent/BR112016024190A2/pt
Publication of BR112016024190B1 publication Critical patent/BR112016024190B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/083Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption the radiation being X-rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/10Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption the material being confined in a container, e.g. in a luggage X-ray scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • G06F2218/06Denoising by applying a scale-space analysis, e.g. using wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/05Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Toxicology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Abstract

IDENTIFICAÇÃO OU DETERMINAÇÃO DE UMA CARGA COM BASE EM TEXTURA Em uma modalidade, a divulgação refere-se a um método para inspecionar uma carga (101) em um contêiner (100), compreendendo: classificar (S2) um ou mais fragmentos (11) de uma imagem de inspeção digitalizada (10), a imagem de inspeção digitalizada (10) sendo gerada por um sistema de inspeção (1) configurado para inspecionar o contêiner (100) por transmissão de radiação de inspeção (3) a partir de uma fonte de radiação de inspeção (31) para um detector de radiação de inspeção (32) através do contêiner (100), em que a classificação (S2) compreende: extrair (S21) um ou mais descritores de textura (V, P) de um fragmento (11) e classificar (S22) o fragmento (11), por comparar um ou mais descritores de textura extraídos (V, P) do fragmento (11) a respectivos um ou mais descritores de textura de referência (Vr, Wr, Pr) correspondentes a uma ou mais classes (202) de itens de referência (201), um ou mais descritores de textura de referência (Vr, Wr, Pr) de cada classe de itens de referência (201) sendo extraídos a partir da ou mais imagens de referência (20) do um ou mais itens de referência (201).

Description

CAMPO DE INVENÇÃO
[001] A presente divulgação refere-se a métodos e sistemas de inspeção por transmissão de radiação, e mais particularmente a inspeção para identificação e / ou determinação de uma carga em um contêiner.
ANTECEDENTES DA INVENÇÃO
[002] Os métodos e sistemas de inspeção conhecidos utilizam transmissão de radiação através de um contêiner para determinar a natureza da sua carga. Às vezes é difícil determinar a natureza da carga, uma vez que alguns itens diferentes e / ou composições diferentes parecem ser semelhantes nas imagens de inspeção geradas pelos métodos e sistemas de inspeção conhecidos.
APRESENTAÇÃO DAS Figuras
[003] Modalidades da descrição serão agora descritas, apenas a título de exemplo, com referência aos desenhos anexos, nos quais: A Figura 1 é uma vista esquemática que ilustra um analisador de exemplo de acordo com a presente divulgação, configurado para ser conectado a um sistema de inspeção de acordo com a presente divulgação; A Figura 2 é uma vista posterior que ilustra um exemplo de um sistema de inspeção móvel de acordo com a presente divulgação, em um modo de inspeção; A Figura 3 é uma vista posterior que ilustra um exemplo de um sistema de inspeção estático de acordo com a presente divulgação, em um modo de inspeção; A Figura 4 é um fluxograma que ilustra um método de exemplo de acordo com a presente divulgação; A Figura 5 ilustra um exemplo de imagem de inspeção de acordo com a presente divulgação, compreendendo exemplos de fragmentos de cigarro; A Figura 6 é um fluxograma que ilustra um detalhe de um método de exemplo de acordo com a presente divulgação; A Figura 7 ilustra exemplos de zonas de imagens de inspeção de acordo com a presente divulgação, compreendendo exemplos de fragmentos de cigarro; A Figura 8 ilustra exemplos de fragmentos de cigarros de referência de acordo com a presente divulgação; A Figura 9 ilustra esquematicamente um exemplo de um extrator de características de textura utilizando Filtros de Espelho em Quadratura, QMF; A Figura 10A ilustra esquematicamente um exemplo de uma decomposição de uma imagem em três escalas de decomposição utilizando um extrator de características de textura utilizando Filtros de Espelho em Quadratura, QMF; A Figura 10B ilustra um exemplo de uma decomposição de uma imagem em duas escalas de decomposição utilizando um extrator de características de textura utilizando Filtros de Espelho em Quadratura, QMF; A Figura 11A ilustra esquematicamente um exemplo de uma classe de referência compreendendo uma pluralidade de descritores de textura Vr, referidos como banco de dados de "cigarros" ou classe 1; A Figura 11B ilustra esquematicamente um exemplo de uma classe de referência compreendendo uma pluralidade de descritores de textura Wr, referidos como banco de dados de "não cigarros" ou classe 2; A Figura 11C ilustra esquematicamente um exemplo de um descritor de textura V compreendendo uma pluralidade de características de textura, o descritor de textura V descrevendo um fragmento a ser classificado; A Figura 12A ilustra esquematicamente exemplos de um impacto de difusão em uma pluralidade de fragmentos (lado esquerdo), e exemplos de respectivos descritores de textura dedicados da pluralidade de fragmentos (lado direito); A Figura 12B ilustra esquematicamente exemplos de um impacto de ruído em uma pluralidade de fragmentos (lado esquerdo) e exemplos do respectivo descritor de textura dedicado da pluralidade de fragmentos (lado direito); A Figura 13A ilustra esquematicamente um exemplo de um classificador utilizando uma técnica de Máquina de Vetor de Suporte (SVM); A Figura 13B ilustra esquematicamente um outro exemplo de um classificador utilizando uma técnica de Máquina de Vetor de Suporte (SVM); A Figura 14 ilustra esquematicamente um exemplo de um classificador utilizando uma técnica de vizinhança mais próxima k (k-NN); A Figura 15A ilustra esquematicamente um exemplo de um fragmento a ser classificado com um exemplo do respectivo descritor de textura dedicado; A Figura 15B ilustra esquematicamente um exemplo de banco de filtros e os correspondentes limiares de decisão; A Figura 15C ilustra esquematicamente uma resposta do fragmento da Figura 15A ao banco da Figura 15B, com o seu correspondente valor de confiança; A Figura 16A e 16B ilustram esquematicamente exemplos de imagens equalizadas apresentando falsos positivos; e A Figura 17A ilustra esquematicamente uma imagem mostrando uma probabilidade em cada fragmento da imagem de inspeção; A Figura 17B ilustra esquematicamente um exemplo de imagem binária gerada; e A Figura 18 ilustra esquematicamente uma imagem final tal como apresentada para um usuário.
[004] Nas figuras números de referência semelhantes são utilizados para indicar elementos semelhantes.
DESCRIÇÃO DE MODALIDADES DE EXEMPLO VISÃO GERAL
[005] As modalidades da divulgação referem-se a um método para inspecionar uma carga em um contêiner por extração de um ou mais descritores de textura a partir de fragmentos de uma imagem de inspeção digitalizada da carga, e por classificar os fragmentos correspondentes em classes de referência de itens utilizando um ou mais descritores de textura extraídos. A classificação pode envolver comparar um ou mais descritores de textura extraídos com um ou mais descritores de textura de referência correspondentes às classes de referência. A classificação pode permitir, por exemplo, detecção e / ou identificação da carga, ou pode permitir identificação de uma composição de pelo menos uma parte da carga. A extração dos descritores de textura pode permitir a detecção e / ou identificação onde mera análise, sem utilizar a textura de pelo menos uma zona de interesse da imagem, não permite discriminação entre diferentes itens ou composições na imagem de inspeção. A detecção e / ou identificação pode ser particularmente vantajosa nos casos em que a carga e / ou a composição a ser detectada e / ou identificada inclui valor elevado e / ou itens e / ou composições de contrabando, tais como cigarros, notas de banco, drogas (como cannabis ou cocaína), medicamentos, pílulas, grãos (como café), etc.
[006] As modalidades da descrição utilizam descritores de textura, extratores de textura e / ou classificadores de textura que podem permitir detecção e / ou identificação da carga e / ou sua composição, mesmo com um número relativamente pequeno de descritores de textura de referência nas classes de referência (por exemplo, um número de uma ordem de grandeza de 1000). Alternativamente ou adicionalmente, modalidades da divulgação podem permitir a detecção e / ou identificação da carga e / ou da sua composição, mesmo com uma quantidade relativamente elevada de ruído e / ou difusão, e / ou uma resolução relativamente baixa das imagens de inspeção. Alternativamente ou adicionalmente, as modalidades da divulgação podem permitir a identificação e / ou a detecção em um período de tempo relativamente curto, isto é, em uma ordem de grandeza de um segundo.
[007] As modalidades da divulgação utilizam a classificação de uma ou mais zonas da imagem de inspeção e, assim, podem permitir a identificação e / ou a detecção, mesmo quando pelo menos uma parte da carga é sobreposta com uma tela bloqueando a transmissão da radiação de inspeção.
DESCRIÇÃO DETALHADA DE MODALIDADES DE EXEMPLO
[008] Como ilustrado na Figura 7, uma textura em uma imagem 10 é uma repetição quase periódica ou aleatória de elementos básicos 14 tendo propriedades visuais macroscópicas idênticas. Os elementos básicos 14 são às vezes chamados de 'texels' (uma versão curta para 'elementos de textura'). A textura em uma imagem 10 de um item é um dos parâmetros que podem ser utilizados para identificar o item e / ou sua composição. Como exemplo não limitativo, uma textura pode ser identificada em uma imagem de cigarros, uma vez que: Os cigarros estão localizados em embalagens contendo um número específico e regular de cigarros (geralmente 20 cigarros por embalagem), as embalagens estão localizadas em pacotes contendo um número específico e regular de embalagens (geralmente 10 embalagens por pacote), os pacotes estão localizados em caixas contendo um número específico e regular de pacotes (por exemplo 10 pacotes por caixa), e as caixas estão localizadas em paletes contendo um número específico e regular de caixas para obter um volume específico (por exemplo, aproximadamente 1m3 na Europa e aproximadamente 1,25m3 nos EUA). A textura da imagem 10 pode ser descrita por pelo menos um descritor de textura compreendendo características de textura. Como descrito em mais detalhe abaixo, o descritor de textura pode ser extraído de valores de pixels 12 da imagem 10 e / ou de relações espaciais mútuas entre os pixels 12 da imagem 10 correspondendo à estrutura da imagem 10.
[009] A Figura 1 ilustra um analisador 5 configurado para classificar um ou mais fragmentos 11 de uma ou mais imagens de inspeção digitalizadas 10 de uma carga 101 em um contêiner 100.
[0010] Cada uma das imagens 10 pode ser gerada por um sistema de inspeção 1.
[0011] Como será evidente em mais detalhe abaixo, o analisador 5 pode ser configurado para receber uma ou mais imagens 10 do sistema 1, por exemplo através de uma rede de comunicação 6 que pode ser com fio e / ou pode ser sem fio. O analisador 5 compreende convencionalmente pelo menos um processador e uma memória para realizar um método de exemplo de acordo com a divulgação.
[0012] Conforme explicado em mais detalhe abaixo em relação às Figuras 2 e 3, o sistema de inspeção 1 é configurado para inspecionar o contêiner 100 por transmissão da radiação de inspeção 3 a partir de uma fonte de radiação de inspeção 31 para um detector de radiação de inspeção 32 através do contêiner 100.
[0013] As Figuras 2 e 3 ilustram que o contêiner 100 pode ser um trailer e / ou um armazenamento de um veículo tal como um caminhão, uma van e / ou um carro e / ou pode ser um contêiner de transporte. É apreciado que o contêiner 100 pode ser qualquer tipo de contêiner, e assim pode ser uma mala em alguns exemplos. A fonte de radiação 31 é configurada para provocar a inspeção da carga 101 através do material (usualmente aço) de paredes do contêiner 100, por exemplo, para detecção e / ou identificação de itens e / ou composições de alto valor e / ou de contrabando, tais como cigarros, notas de banco, drogas, medicamentos, pílulas, grãos (como grãos de café), etc.
[0014] O sistema 1 é configurado para, no modo de inspeção, provocar inspeção do contêiner 100, na totalidade (isto é, o contêiner inteiro 100 é inspecionado) ou parcialmente (isto é, apenas uma parte escolhida do contêiner é inspecionada, por exemplo tipicamente quando inspeciona um veículo, uma cabine do veículo pode não ser inspecionada, enquanto uma parte traseira do veículo é inspecionada).
[0015] No exemplo ilustrado na Figura 2, o sistema de inspeção 1 pode ser móvel e pode ser transportado de um local para outro local (o sistema 1 pode compreender um veículo automotivo) e no exemplo ilustrado na Figura 3, o sistema de inspeção 1 pode ser estático em relação ao solo e não pode ser deslocado.
[0016] Um tipo do sistema de inspeção 1 pode ser caracterizado por uma energia e / ou uma dose da radiação de inspeção 3.
[0017] Nos exemplos ilustrados pelas Figuras, a fonte de radiação de inspeção 31 compreende um gerador de raios X. A energia dos raios X pode estar compreendida entre 1 MeV e 15MeV, e a dose pode estar compreendida entre 2mGy e 20Gy (Gray). No exemplo ilustrado na Figura 2, a potência da fonte de raios X 31 pode ser, por exemplo, entre 500keV e 9,0MeV, tipicamente por exemplo, 2MeV, 3,5MeV, 4MeV ou 6MeV, para uma capacidade de penetração de aço, por exemplo, entre 150 mm a 350 mm, tipicamente por exemplo, 200 mm (7,9 polegadas). No exemplo ilustrado na Figura 2, a dose pode ser, por exemplo, entre 20mGy e 50mGy. No exemplo ilustrado na Figura 3, a potência da fonte de raios X 31 pode ser, por exemplo, entre 4MeV e 10MeV, tipicamente por exemplo, 9MeV, para uma capacidade de penetração de aço, por exemplo, entre 300 mm a 450 mm, tipicamente por exemplo, 410 mm). No exemplo ilustrado na Figura 3, a dose pode ser 17Gy.
[0018] Nos exemplos ilustrados pelas Figuras, o detector de radiação de inspeção 32 compreende, entre outros elementos elétricos convencionais, linhas de detecção de radiação 321, tais como linhas de detecção de raios X. O detector de radiação de inspeção 32 pode ainda compreender outros tipos de detectores, tais como detectores de gama e / ou nêutrons opcionais, por exemplo, adaptados para detectar a presença de radiação gama e / ou nêutrons que emitem materiais dentro do contêiner 100, por exemplo, simultaneamente a nêutrons de raios X. No exemplo ilustrado na Figura 2, o detector de radiação de inspeção 32 pode também compreender uma barra eletro-hidráulica 7 que pode funcionar em uma posição retraída em um modo de transporte (não ilustrado nas Figuras) e em uma posição de inspeção (Figura 2). A barra 7 pode ser operada por ativadores hidráulicos (tais como cilindros hidráulicos). No exemplo ilustrado na Figura 3, o detector de radiação de inspeção 32 pode também compreender uma estrutura e / ou pórtico 7. As linhas de detecção 321 podem ser montadas na barra 7 (Figura 2) ou estrutura e / ou pórtico 7 (Figura 3), de frente para a fonte 31 no outro lado do contêiner 100.
[0019] De modo a inspecionar o contêiner 100, no exemplo ilustrado pela Figura 2, o sistema 1 pode compreender um dispositivo de geração de movimento de modo que o sistema 1 possa ser deslocado, o contêiner 100 sendo estático (este modo é, por vezes, referido como um modo de “varredura”). Alternativamente ou adicionalmente, o dispositivo de geração de movimento pode fazer com que o contêiner 100 seja deslocado, o sistema 1 sendo estático em relação ao solo (Figura 3). Alternativamente ou adicionalmente, em um modo de "passagem" o sistema 1 não compreende um dispositivo de geração de movimento e o contêiner move em relação ao sistema 1, o sistema 1 sendo estático em relação ao solo.
[0020] Em alguns exemplos, a radiação 3 pode ser transmitida através do contêiner 100 (o material do contêiner 100 sendo assim transparente à radiação), enquanto a radiação pode, pelo menos parcialmente, ser refletida pela carga 101 localizada no contêiner 100 (o material e / ou composição da carga localizada no contêiner 100 sendo assim apenas parcialmente transparente à radiação 3 e parcialmente refletivo à radiação 3 - nesse caso, detectores podem ser colocados para receber a radiação refletida pela carga 101).
[0021] O método de exemplo ilustrado pela Figura 4 pode compreender receber, em S1, uma ou mais imagens digitalizadas 10 a partir do sistema de inspeção 1. Como ilustrado na Figura 5, cada imagem digitalizada 10 compreende uma pluralidade de pixels 12. Pelo menos um valor Ng representativo da transmissão da radiação de inspeção 3 através do contêiner 100 está associado a cada pixel 12. Cada pixel 12 está associado com uma porção do espaço e pode estar associado com um 102 da carga 101.
[0022] Em S2, o analisador 5 classifica um ou mais fragmentos 11 da imagem de inspeção digitalizada 10. Cada um dos fragmentos 11 é uma divisão da imagem 10, por exemplo, a imagem 10 pode ser dividida em fragmentos sucessivos 11. Em alguns exemplos, o analisador 5 pode dividir a imagem recebida 10 nos fragmentos 11. Alternativamente ou adicionalmente, o analisador 5 pode receber a imagem 10 do sistema de inspeção 1 já dividida nos fragmentos 11. Os fragmentos podem fazer parte de uma seleção 15 de fragmentos 11, de modo a reduzir o tempo de processamento apenas por classificar fragmentos de interesse, tal como explicado em maior detalhe abaixo. Em alguns exemplos, sucessivos fragmentos 11 podem estar sobrepostos uns aos outros. A sobreposição entre dois fragmentos sucessivos 11 pode tomar qualquer extensão, tal como, por exemplo, a sobreposição pode estar compreendida entre 10% e 90%. É apreciado que uma sobreposição de 10% geralmente reduz o número de fragmentos 11 a serem processados em uma imagem 10, e assim reduz o tempo de processamento, a um custo de um possível resultado menos preciso, enquanto uma sobreposição de 90% em geral aumenta o número de fragmentos 11 a ser processado em uma imagem 10, e assim aumenta o tempo de processamento, mas dá um resultado mais preciso. Como um compromisso vantajoso, a sobreposição pode ser igual a 50%.
[0023] Cada dos fragmentos 11 pode ter qualquer dimensão ou forma. No entanto, como será evidente na especificação abaixo, cada fragmento 11 pode formar um quadrado, com um mesmo número de pixels em cada lado do fragmento 11. Isto pode ser vantajoso em alguns exemplos da divulgação, alguns dos algoritmos requerendo fragmentos quadrados. Em um exemplo, o número de pixels em cada lado do fragmento 11 pode ser 64, e a dimensão de cada fragmento pode ser então de 64 x 64 pixels.
[0024] Em alguns exemplos, o método pode compreender ainda selecionar, para processamento posterior, apenas fragmentos 11 com um valor médio Mg (Mg sendo a média dos valores dos pixels 12 de um fragmento) tal que: T1<Mg<T2, em que: T1 é um valor de limiar mínimo para itens de interesse inspecionados pelo sistema de inspeção 1; e T2 é um valor de limiar máximo para itens de interesse inspecionados pelo sistema de inspeção 1. Os pixels 12 com valores Ng acima de T2 normalmente correspondem a pixels associados ao fundo 160 na imagem 10, e os pixels 12 com valores Ng abaixo de T1 são normalmente zonas 17 muito escuras para qualquer detecção. A seleção dos fragmentos 11 diminui o número de fragmentos 11 a processar, e assim economiza algum tempo de processamento. Por exemplo, para valores Ng codificados em 16 bits (de 0 a 65535), T1 pode ser, por exemplo, igual a 2000 e T2 pode ser, por exemplo, igual a 55000.
[0025] Conforme explicado em maior detalhe abaixo, o método ilustrado na Figura 4 pode compreender, em S3, uma avaliação opcional de uma dimensão de uma parte 103 da carga 101 correspondente a uma pluralidade de fragmentos selecionados 11 classificados em uma mesma classe, e apenas itens com partes 103 tendo um tamanho acima de um tamanho de limiar podem ser processados. Isso pode reduzir o número de falsos alarmes. É apreciado que o tamanho pode depender do item. Por exemplo, pode ser que partes 103 de cigarros abaixo de um limiar correspondente à metade do tamanho de um palete (isto é, aproximadamente 1/2m3 na Europa) possam não ser processadas. O tamanho de limiar pode ser menor no caso de drogas ou notas de banco, por exemplo.
[0026] Em S4, o método compreende desencadear uma ação com base no resultado da classificação realizada em S2.
[0027] Conforme explicado em maior detalhe abaixo, a ação pode ser:
[0028] Determinar uma composição da parte 103 da carga 101 correspondente à parte selecionada 11 da imagem de inspeção 10, exibir a imagem de inspeção digitalizada com uma ou mais composições determinadas para uma ou mais partes 103 da carga 101, emitir um alarme e / ou enviar um ou mais fragmentos selecionados 11 para um controlador 4.
[0029] No exemplo ilustrado na Figura 6, a classificação realizada em S2 pode compreender, para um ou mais fragmentos 11, por exemplo em uma seleção 15 de um ou mais fragmentos 11 como explicado com mais detalhe abaixo: Extrair, em S21, um ou mais descritores de textura V ou P, por exemplo com base no valor dos pixels 12 localizados no fragmento 11 selecionado como explicado em mais detalhe abaixo e classificar, em S22, o fragmento selecionado 11, por comparar um ou mais descritores de textura extraídos do fragmento selecionado 11 com um ou mais descritores de textura de referência Vr, Wr ou Pr correspondentes a uma ou mais classes 202 de itens de referência 201.
[0030] Como já explicado, os itens de referência 201 podem ser, como exemplos não limitativos, cigarros, notas de banco, drogas (tais como cannabis ou cocaína), medicamentos (tais como pílulas ou comprimidos), pílulas, grãos de café, etc. Pode haver assim uma classe 202 para cigarros, uma classe 202 para notas de banco, uma classe 202 para cannabis, etc.
[0031] Conforme explicado em maior detalhe abaixo, os descritores de textura de referência de cada classe 202 do item de referência 201 podem ser extraídos de uma ou mais imagens de referência 20 de um ou mais itens de referência 201, por exemplo, inspecionados pelo sistema de inspeção 1.
[0032] No exemplo ilustrado na Figura 1, os descritores de textura de referência Vr, Wr ou Pr, por exemplo, formando as classes 202, podem ser armazenados em um banco de dados de referência 200. Em alguns exemplos, o banco de dados 200 pode compreender os respectivos descritores de textura de referência Vr, Wr ou Pr (e assim, por exemplo, as classes correspondentes 202) para cada tipo de sistema de inspeção 1.
[0033] No exemplo ilustrado na Figura 8, os descritores de textura de referência da classe de cigarros 202 podem ser extraídos dos fragmentos 16 de imagens de referência 20 de cigarros, conforme inspecionado pelo sistema de inspeção 1.
[0034] Será apreciado que, em exemplos do método de acordo com a divulgação, o analisador 5 pode ser configurado para recuperar os descritores de textura de referência Vr, Wr ou Pr do banco de dados 200 através de uma rede de comunicação 7, graças a um servidor de comunicação 8 configurado para fornecer um sistema de gerenciamento de dados remoto. Alternativamente ou adicionalmente, o banco de dados 200 pode estar pelo menos parcialmente localizado no analisador 5.
[0035] No exemplo ilustrado na Figura 1, o servidor 8 pode também fornecer acesso ao banco de dados 200 para uma pluralidade de analisadores distribuídos geograficamente 5, através da rede 7.
[0036] Como já referido, em alguns exemplos, o banco de dados 200 pode ser preenchido a partir de itens de referência 201 inspecionados pelo sistema de inspeção 1.
[0037] No exemplo ilustrado na Figura 1, o sistema de inspeção 1 pode assim enviar imagens de referência 20 para o controlador 4, que pode ser ainda configurado para extrair os correspondentes descritores de textura de referência e assim preencher o banco de dados 200, por exemplo, durante uma fase de configuração.
[0038] No exemplo ilustrado na Figura 1, um ou mais sistemas de inspeção 1 (do mesmo tipo ou de tipos diferentes) também podem enviar imagens de referência 20 de itens de referência 201 para o controlador 4, de modo a preencher ainda mais o banco de dados 200.
[0039] Alternativamente ou adicionalmente, o analisador 5 pode também enviar um ou mais fragmentos selecionados 11 ao controlador 4 depois de terem sido classificados em uma classe 202, de modo a preencher ainda mais o banco de dados 200 (um ou mais fragmentos selecionados 11 podem ser então considerados como fragmentos de referência). Isso permite enriquecer e / ou atualizar o banco de dados 200.
[0040] Será apreciado que a divulgação pode ser aplicada à detecção e / ou identificação de qualquer tipo de item e / ou composição. Contudo, será agora descrito um exemplo não limitativo para a detecção e / ou identificação de cigarros.
[0041] Primeiro, são construídas as classes de referência 202, e podem ser referidas como classe 1 para "cigarros" e classe 2 para "não cigarros".
[0042] Para construir a classe 1, um conjunto de imagens de referência 20 contendo apenas imagens de cigarros pode ser dividido em fragmentos 16 tendo um tamanho de 64x64 pixels. Esta dimensão do fragmento é vantajosa, pelo menos porque um palete de cigarros normalmente ocupa cerca de 70 pixels nas linhas de detecção 321 do sistema de inspeção 1. Um descritor de textura (tal como um vetor com características de textura como as suas dimensões, como descrito com mais detalhe abaixo) pode então ser extraído para cada fragmento de cigarros de referência 16. Exemplos de métodos de extração dos descritores serão descritos em mais detalhe abaixo. O conjunto de todos esses descritores de textura (como vetores) é a classe de referência 1.
[0043] Da mesma forma, um conjunto de imagens de referência 20 contendo apenas imagens de itens não cigarros pode ser dividido em fragmentos 16 com o tamanho 64x64 pixels. Um descritor de textura pode então ser extraído para cada fragmento de não cigarros de referência 16. O conjunto de todos estes descritores é a classe de referência 2.
[0044] Em algumas modalidades, o método pode compreender um passo de validação das classes de referência e / ou do método por validação cruzada. A validação cruzada pode compreender um passo de classificação de um subconjunto de um ou mais fragmentos 16 das imagens de referência 20 utilizando os outros fragmentos 16 das imagens de referência 20.
[0045] Então, quando se quer determinar se uma imagem de inspeção 10 contém cigarros ou não, a imagem 10 é dividida em fragmentos 11 do mesmo tamanho que os fragmentos 16 que constituem as duas classes de referência 202 (ou seja, 64x64 pixels). Cada fragmento 10 é considerado como sendo um objeto a ser classificado.
[0046] O analisador 5 pode extrair o descritor de textura como para os descritores de referência. Em seguida, um método de classificação pode ser aplicado para classificar os fragmentos 11. Exemplos de métodos de classificação serão descritos em maior detalhe abaixo.
[0047] Conforme já mencionado, o método pode compreender a classificação de uma ou mais sobreposições sucessivas de fragmentos 11. A sobreposição entre dois fragmentos sucessivos pode estar compreendida entre 10% e 90%, e pode ser preferencialmente igual a 50%.
[0048] Uma vez que os fragmentos 11 são classificados, a imagem pode ser equalizada, e uma ação pode ser desencadeada. A ação pode compreender a determinação de uma composição da parte 103 da carga 101 correspondente ao fragmento 11 selecionado da imagem de inspeção 10, tal como cigarros ou drogas. A ação pode também exibir a imagem de inspeção digitalizada com uma ou mais composições determinadas para uma ou mais partes 103 da carga 101, como ilustrado na Figura 18. A exibição pode utilizar um código de cores para os diferentes itens e / ou composições para facilidade de inspeção por um usuário. Um alarme (visual e / ou aural) pode ser emitido como resposta à identificação e / ou detecção de um item e / ou composição.
[0049] Cada um dos descritores de textura pode ser um descritor genérico e / ou um descritor dedicado a uma carga 101 e / ou a um item de referência 201.
[0050] Conforme explicado em maior detalhe abaixo, o descritor genérico pode ser extraído utilizando um ou mais extratores entre os seguintes: uma resposta a um banco de filtros; um método de Haralick implementando uma matriz de co-ocorrência; e / ou um filtro de espelho em quadratura, QMF.
[0051] Em alguns exemplos, a resposta a um banco de filtros pode implementar, por exemplo, filtros de Gabor, ou seja, filtros gerados a partir de uma função de Gabor em uma pluralidade de escalas e orientações. Os filtros de Gabor podem permitir a extração de texturas, contornos, linhas e pontos com diferentes orientações em fragmentos 11 e / ou 16.
[0052] Em alguns exemplos, cada fragmento 11 e / ou 16 pode ser filtrado por uma pluralidade de filtros de Gabor bidirecionais, correspondendo a uma convolução com um núcleo de coseno, ponderados por uma janela de Gaussiana. Os filtros de Gabor bidimensionais podem ser equivalentes a uma transformada de Fourier local usando uma janela de Gaussiana. A resposta a um banco de filtros pode assim permitir filtrar localmente uma largura de banda de frequências. Por exemplo, deixe pa representar o fragmento 11 e / ou 16, e Df seu domínio de frequência.
[0053] Então um descritor de textura V pode ser calculado por convolução de pa por g, g sendo um filtro de Gabor tal que:
Figure img0001
com g sendo um filtro de Gabor em 2D (isto é, nas frequências (i, j)) tal que:
Figure img0002
com:
Figure img0003
e θ e À sendo parâmetros de filtro escolhidos.
[0054] Em alguns exemplos, podem ser utilizados dois bancos de filtros g, com os mesmos parâmetros θ e À que os parâmetros θ e À estabelecidos no artigo "Comparação de características de textura com base em filtros de Gabor", de Grigorescu et al., IEEE Transações Em Processamento de Imagens, 2002, vol. 11, # 10, p. 1160-1167. Em um dos dois bancos, o núcleo de Gabor pode ser simétrico (Φ = 0), e no segundo dos dois bancos, o núcleo de Gabor pode ser anti- simétrico (Φ = -π / 2). Cada banco contém 24 filtros de Gabor de frequência 1 / À (1 / À sendo sucessivamente igual a 23, 31 e 47) e de orientação θ = kTπ / 8 (com k sendo sucessivamente igual a 0, 1, 2, 3, 4, 5, 6 e 7).
[0055] Por conseguinte, em alguns exemplos, como uma resposta a cada um dos dois bancos de 24 filtros como descrito acima, um descritor sob a forma de um vetor V com 24 dimensões pode ser extraído, para cada pixel 12 no fragmento 11 e / 16 da imagem 10 ou 20. O descritor genérico obtido V pode assim compreender 24 características de textura.
[0056] Os dois vetores V obtidos a partir dos bancos simétricos e anti-simétricos também podem ser combinados em um único descritor de textura que pode ser chamado de "energia de Gabor" Ve (a energia de Gabor pode estar relacionada a uma modelagem de córtex visual humano e uma capacidade dos neurônios humanos de perceberem uma orientação de contornos). A energia de Gabor Ve pode ser tal que:
Figure img0004
[0057] Matrizes de co-ocorrência (abreviação de "matrizes de co-ocorrência de níveis de cinza") podem ser implementadas em um método de Haralick, conforme descrito no artigo "Características de textura para classificação de imagem", por RM Haralick et al, IEEE Transações em Sistemas, Homens e Cibernética, novembro de 1973, vol. SMC-3, # 6, p. 610-621. As matrizes podem ser com base na análise estatística da distribuição do valor Ng dos pixels 12 (conectados à intensidade) no fragmento 11 e / ou 16. Em vez de utilizar estatísticas com base em pixels individuais 12, as matrizes de co-ocorrência usam estatísticas de segunda ordem obtidas por considerar pares de pixels 12. Uma matriz de P (i, j / d, θ) (que pode ser análoga a um histograma bidirecional) ilustra a probabilidade (ou o número de ocorrências) que dois pixels 12, distantes uns dos outros por uma distância d em uma direção com um ângulo θ, têm intensidades i e j.
[0058] O descritor genérico V obtido por uma matriz de co-ocorrência pode compreender uma pluralidade de características de textura, tais como contraste, média e variação padrão, etc. Em alguns exemplos, as matrizes de co- ocorrência utilizadas em um método de Haralick podem permitir extração de, por exemplo, 13 características de textura para cada ângulo θ, como o contraste, a média e a variação padrão já mencionada e: A energia f1 (ou momento angular de segunda ordem):
Figure img0005
A entropia f2:
Figure img0006
A correlação f3:
Figure img0007
A inércia f4:
Figure img0008
A homogeneidade f5:
Figure img0009
Em que p (i, j) é um elemento da matriz P, M é a média de p (i, j), e o é o desvio padrão de p (i, j).
[0059] A Tabela 1 abaixo ilustra um exemplo de um fragmento inicial 11 e / ou 16 com pixels 12 tendo valores Ng, por exemplo, compreendidos entre 0 e 5:
Figure img0010
Tabela 1
[0060] A Tabela 2 mostra uma matriz de co-ocorrência obtida para (d, θ) = (1, 0°).
Figure img0011
Figure img0012
Tabela 2
[0061] A Tabela 3 mostra uma matriz de co-ocorrência obtida para (d, θ) = (1, 90°).
Figure img0013
Tabela 3
[0063] Portanto, para seis ângulos θ (tais como: 0°, 45°, 90°, 135°, 225°, 315°), cada descritor de textura V pode assim ser um vetor com 78 dimensões (6x13 = 78).
[0064] Em alguns exemplos, o descritor pode compreender um descritor obtido pela QMF. O método de QMF pode permitir uma análise textural, tanto no domínio espacial como no domínio da frequência. Alternativamente ou adicionalmente, o método de QMF pode permitir consistência de resultados entre diferentes tipos de sistemas 1. Alternativamente ou adicionalmente, o método de QMF pode permitir uma melhor análise do sinal com descontinuidades ou singularidades locais (por exemplo, contornos desfocados).
[0065] Em exemplos que utilizam a QMF como um extrator, cada fragmento 11 ou 16 forma um quadrado, com um mesmo número de pixels em cada lado do fragmento 11 ou 16.
[0066] Uma transformada wavelet usada pela QMF decompõe um fragmento 11 ou 16 em sub-imagens de baixa resolução. Cada uma das sub-imagens é chamada de coeficiente wavelet e pode destacar informações sobre texturas e também sobre contorno, localização e orientação no fragmento 11 ou 16.
[0067] No exemplo ilustrado esquematicamente na Figura 9, os coeficientes podem ser obtidos utilizando filtros de espelho em quadratura. Um par compreendendo um filtro passa-baixo digital (H0) e um filtro passa-alto (H1) pode ser aplicado em cada nível de decomposição em uma saída de uma saída passa-baixo anterior. No caso de um fragmento 11 ou 16, cada nível da transformada wavelet pela QMF pode ser calculado aplicando-se, sucessivamente nas linhas e nas colunas dos pixels 12 do fragmento 11 ou 16, o par de filtros passa-baixo H0 e passa-alto H1 mencionados acima. Em outras palavras, em cada nível da transformada wavelet, a decomposição recursiva tem, como entrada, a sub-imagem resultante de um filtro passa-baixo H0 nas duas direções espaciais (horizontal, isto é, linhas, e vertical, isto é, colunas).
[0068] Matematicamente, a transformada wavelet usada na QMF pode decompor um sinal usando um conjunto de funções elementares geradas a partir de uma única wavelet (chamada 'wavelet mãe') por translação e escalonamento, isto é, por uma transformação afim da 'wavelet mãe'. Cada uma das wavelets tem uma média que é igual a 0, e é definida em um intervalo compacto (ao contrário de uma transformada de Fourier, que usa funções senoidais periódicas definidas de [-∞; + ∞]).
[0069] Seja a família de wavelets ?s,u definida pela wavelet mãe W tal que:
Figure img0014
onde s (s> 0) é o parâmetro para o escalonamento; e u é o parâmetro para a translação.
[0070] A transformada wavelet transforma uma função pa em coeficientes cs,u tal que:
Figure img0015
[0071] O descritor genérico pode compreender assim uma ou mais características de textura. Uma ou mais características de textura podem compreender a média m e o desvio padrão o dos coeficientes cs,u.
[0072] Em alguns exemplos, a transformada wavelet onda pode ser implementada eficientemente em uma transformada wavelet estruturada em pirâmide (PSWT) ou em uma transformada wavelet de pacote (PWT). No exemplo ilustrado nas Figuras 10A e 10B, em cada nível de decomposição, o fragmento 11 ou 16 pode ser decomposto em quatro regiões de frequência LL, LH, HL e HH. A PWT decompõe o sinal apenas na região de baixas frequências LL, enquanto a PSWT decompõe o sinal em ambas as regiões de baixa e alta frequência. Como mencionado acima, o descritor genérico obtido compreende características de textura, tais como a média m de cada região de frequência, e o desvio padrão de cada região de frequência.
[0073] O fragmento inicial 11 ou 16 pode ser decomposto em qualquer número de escalas de decomposição estritamente superior ou igual a 2. É apreciado que quanto mais níveis, mais preciso o descritor de textura, uma vez que o descritor de textura obtido compreenderá mais características de textura (como a média e o desvio padrão), ao custo de um tempo de processamento mais longo.
[0074] No exemplo ilustrado na Figura 10A, o fragmento inicial 11 ou 16 pode ser decomposto em três escalas de decomposição, o que é um bom compromisso entre o tempo de processamento e o número de características de textura (isto é, 20 características, tais como a média m e o desvio padrão o de LH1, HH1, HL1, LH2, HH2, HL2, LH3, HH3, HL3 e LL3). A Figura 10B ilustra um estado intermediário com apenas dois níveis de decomposição do fragmento inicial 11 ou 16.
[0075] Nos exemplos ilustrados nas Figuras 11A e 11B, cada um dos descritores de textura de cada fragmento 11 ou 16 pode definir um vetor Vr ou Wr, com cada uma das características de textura do descritor Vr ou Wr definindo uma dimensão do vetor. Para uma decomposição em três níveis, é apreciado que cada um dos descritores de textura Vr ou Wr tem 20 dimensões (notadas m1, o1, m2, o2,... nas Figuras 11A e 11B).
[0076] No exemplo ilustrado na Figura 11A, os n descritores de textura Vr1, Vr2,..., Vr16,..., Vrn correspondem aos respectivos descritores de textura de referência Vri (com i = 1... n no exemplo da Figura 11A). Os descritores de textura de referência Vri correspondem à classe 202 de referência para cigarros 201. Os descritores de textura de referência Vri da classe de cigarros de referência 201 podem ser extraídos de uma ou mais imagens de referência 20 de cigarros 201, inspecionados pelo sistema de inspeção 1 como ilustrado, por exemplo, pela Figura 8.
[0077] No exemplo ilustrado na Figura 11B, os n descritores de textura Wr1, Wr2,..., Wr16,..., Wrn correspondem aos respectivos descritores de textura de referência Wri (com i=1... n no exemplo da Figura 11B). Os descritores de textura de referência Wri correspondem à classe 202 de referência correspondente a qualquer item 201, menos cigarros. Os descritores de textura de referência Wri da classe 202 de referência para qualquer item 201 menos cigarros podem ser extraídos de uma ou mais imagens de referência 20 de qualquer item 201 que não contenha cigarros, inspecionados pelo sistema de inspeção 1.
[0078] Os exemplos ilustrados pelas Figuras 11A e 11B mostram que os descritores de textura Vr1, Vr2,..., Vr16, Vrn e Wr1, Wr2,..., Wr16,..., Wrn podem ser armazenados no banco de dados 200.
[0079] As classes de referência 202 podem conter qualquer número n de descritores de referência Vri ou Wri. Sabe-se que quanto mais descritores de referência, mais precisa a classificação.
[0080] As classes 202 não precisam conter o mesmo número de descritores entre elas.
[0081] Cada um dos fragmentos 11 ou 16 pode ter qualquer número de pixels 12, tais como 32x32 pixels ou 128x128 pixels. É apreciado que quanto mais pixels 12, mais precisamente o descritor obtido, uma vez que o descritor pode compreender mais pixels 12 em cada uma das regiões para efeitos do cálculo da média m e o desvio padrão a, mesmo nas regiões LH3, HH3, HL3 e LL3, ao custo de um tempo de processamento mais longo. No exemplo ilustrado nas Figuras 10A e 10B, o fragmento inicial tem 64x64 pixels, o que é um bom compromisso entre o tempo de processamento e o número de pixels nas regiões LH3, HH3, HL3 e LL3 (isto é, 8x8 pixels nas regiões LH3, HH3, HL3 e LL3 da Figura 10A) para o cálculo da média m e o desvio padrão a nas regiões correspondentes.
[0082] Em algumas modalidades, podem ser criados descritores de textura dedicados a uma carga 101 e / ou um item de referência 201 (tal como cigarros, como exemplo não limitativo).
[0083] Em alguns exemplos, o descritor dedicado pode compreender um ou mais descritores tais como: Um nível de cinza médio do fragmento 11 e / ou 16, Uma intensidade de um gradiente vertical no fragmento 11 (também designado por ‘difusão’), Um perfil P correspondente a uma projeção dos valores Ng dos pixels 12 do fragmento 11 ou 16 em um eixo e / ou Um agrupamento de uma pluralidade de descritores de textura.
[0084] Como exemplo não limitativo, os descritores dedicados acima mencionados podem descrever vantajosamente os fragmentos 11 ou 16 correspondentes aos cigarros, como explicado abaixo.
[0085] Conforme ilustrado no exemplo ilustrado na Figura 12A (no lado esquerdo), em uma faixa vertical dos fragmentos 11 ou 16, o nível de cinza é uniforme ou diminui gradualmente. Isto porque, como se vê no exemplo ilustrado na Figura 3, a radiação 3 normalmente passa através de menos material na parte superior do contêiner 100, a qual é mostrada nos fragmentos 11 ou 16. O lado direito da Figura 12A mostra que o descritor dedicado criado Pr, tal como o perfil P correspondente a uma projeção dos valores Ng dos pixels 12 do fragmento 11 selecionado em um eixo (tal como um eixo horizontal), pode ser resiliente à difusão.
[0086] Além disso, como mostrado no exemplo ilustrado pela Figura 12B (no lado esquerdo), os fragmentos 11/16 podem ser afetados por ruído. O lado direito da Figura 12B mostra que o descritor P criado, tal como o perfil P correspondente a uma projeção dos valores Ng dos pixels 12 dos fragmentos 11 ou 16 em um eixo (tal como um eixo horizontal), pode ser resiliente a ruído.
[0087] O agrupamento pode ser vantajosamente utilizado com descritores de textura dedicados, tais como os perfis P descritos acima.
[0088] Encontrar agrupamentos C pode ter por objetivo extrair os perfis que são as maiores características dos itens de referência 201 (tais como cigarros como um exemplo não limitativo), podendo assim tentar obter padrões M para os itens de referência 201.
[0089] Em alguns exemplos, o agrupamento pode usar K-meios. Conforme ilustrado nas Figuras 12A e 12B, os perfis P são inerentemente periódicos, e apenas a fase varia entre eles. Consequentemente, pode ser utilizada uma medida c de correlação dos padrões, que é invariante à translação dos padrões:
Figure img0016
Onde P1 e P2 são os perfis de dois fragmentos, por exemplo, dois fragmentos 16. O centro dos agrupamentos C pode então ser definido como a média dos perfis correspondentes P, depois de uma translação maximizando a correlação c. Uma ideia dos padrões M extraídos por agrupamento é ilustrada pela Figura 15B.
[0090] As vantagens do agrupamento podem incluir: fo ruído pode ser diminuído; generalização, aprendizado excessivo pode ser evitado; e os padrões obtidos M podem servir como banco de filtros f. É apreciado que os filtros dedicados ao reconhecimento de uma forma específica mostram uma melhor separabilidade em comparação com filtros genéricos (tais como Gabor, MR8...).
[0091] No exemplo ilustrado pela Figura 6, a classificação dos fragmentos S22 pode compreender utilização de qualquer um dos seguintes classificadores: Uma máquina de vetor de suporte, SVM, K-vizinhos mais próximos, k-NN, e / ou uma inferência bayesiana.
[0092] No exemplo ilustrado pelas Figuras 13A e 13B, S22 pode compreender um classificador utilizando classificação de SVM como por exemplo descrito no artigo "Redes de Suporte de Vetor" por V. Vapnick et al., Aprendizagem de Máquina, 1995, 20 (3), p. 273-297, e / ou no artigo "Aprendizagem com Núcleos" por B. Scoelkopf et al., 2002, MIT Press. A SVM pode ter como objetivo prever uma classe à qual pertence um descritor de textura, como um vetor. A SVM pode usar:
[0093] Primeiro um passo de aprendizagem, durante o qual um modelo de classes 202 pode ser determinado a partir de vetores de aprendizagem (isto é, um conjunto de descritores de exemplo, isto é, os descritores de referência extraídos Vri e / ou Wri) e segundo, um passo de classificação.
[0094] Durante o passo de aprendizagem, a SVM pode ter como objetivo encontrar um separador ótimo SP (tal como um hiperplano) entre as classes 202 (tal como uma separação SP entre a classe 202 para cigarros e a classe 202 para não cigarros) com base nos vetores de aprendizagem. A SVM pode procurar encontrar o separador ideal SP enquanto a distância (também chamada margem) entre o hiperplano SP e o exemplo mais próximo é mantida no máximo. A pesquisa do hiperplano de margem máxima SP corresponde a um problema de otimização no qual são selecionados vetores de suporte (isto é, nos exemplos das Figuras 13A e 13B, os vetores de aprendizagem mais próximos do hiperplano SP), como explicado abaixo.
[0095] A SVM pode ser utilizada, como exemplo não limitativo, para uma classificação binária tal como cigarros / não cigarros, como explicado abaixo.
[0096] Seja D um conjunto de treinamento de vetores tal que: D = {(Vi, yi)} Onde Vi é o descritor (vetor) de um fragmento 16 no espaço Rn das características de textura geradas a partir de S21; e yi £ {1, -1} é a classe de referência 202 de Vi, ou seja, (1) para cigarros e (-1) para não cigarros.
[0097] O processo de SVM pode começar pela injeção de Vi em um espaço de Hilbert F, F tendo uma dimensão alta, por uma aplicação não linear Φ tal que: Φ: Rn → F Primeiro, vamos considerar que os dados são linearmente separáveis em F. Assim, existe um vetor w ω Є F, e um escalar b b Є R de tal modo que:
Figure img0017
[0098] Assim, a SVM pode construir o hiperplano de separador SP definido pela equação:
Figure img0018
e que maximiza a margem de erro como ilustrado na Figura 13B.
[0099] Pode-se mostrar que o vetor w que define o hiperplano ótimo SP é definido por:
Figure img0019
[00100] Os vetores Vi para os quais αi / 0 são chamados vetores de suporte.
[00101] O produto escalar em F pode ser substituído por uma função de núcleo K em Rn tal que:
Figure img0020
[00102] No exemplo ilustrado nas Figuras 13A e 13B, o separador SP ilustrado na Figura 13B é assim melhor do que o separador SP ilustrado na Figura 13A.
[00103] No entanto, os dados podem não ser linearmente separáveis em qualquer dos espaços de características geradas em S21 e, em alguns exemplos, um núcleo gaussiano ou núcleo polinomial pode ser usado.
[00104] A SVM pode usar funções como estabelecido em uma biblioteca libsvm por CC Chang e CJ Lin, disponível on- line em: Http://www.csie.ntu.edu.tw/~cjlin/libsvm/.
[00105] Em alguns exemplos, o núcleo gaussiano pode ser tal que:
Figure img0021
Onde T pode ser obtido pela validação cruzada de k- dobras.
[00106] Em alguns outros exemplos, a função de núcleo polinomial pode ser:
Figure img0022
onde (Y, V)) são parâmetros escolhidos; Co é um coeficiente escolhido, geralmente 0; e n é o grau da função de núcleo polinomial, normalmente 3.
[00107] A determinação dos parâmetros (y, v) pode ser realizada por validação cruzada. A validação cruzada pode compreender dividir os dados disponíveis em múltiplos subconjuntos (por exemplo, 5) e avaliar a SVM em cada subconjunto utilizando os dados restantes como um conjunto de aprendizagem. A avaliação pode ser realizada várias vezes variando (y, v), então mantendo o melhor casal (y, v).
[00108] Uma vez determinado o classificador (tal como o separador SP), para classificar um descritor de textura (vetor) de um fragmento 11, os vetores de aprendizagem utilizados na pesquisa do hiperplano SP deixam de ser úteis, apenas os vetores de suporte encontrados são utilizados. O método de SVM pode assim ser eficaz em termos de complexidade e tempo de processamento.
[00109] Em alguns exemplos, um classificador pode usar um k-NN, que pode visar atribuir uma textura de um fragmento 11 representado por um vetor V para a classe mais representativa 202 Vri na sua vizinhança imediata, como ilustrado na Figura 14. O método de k-NN pode ser formalmente definido por:
Figure img0023
onde Si(x) é o número de vizinhos de V pertencentes à classe Vri, entre seus vizinhos k mais próximos.
[00110] O método de k-NN pode assim selecionar os k vetores de aprendizagem mais próximos Vri ou Wri para o vetor V a ser classificado. A técnica de classificação por k-NN pode assim ser um método de classificação baseado em distâncias. O classificador de k-NN pode usar qualquer tipo de distância, como a distância L1 (Manhattan),
Figure img0024
a distância L2 (Euclidiana)
Figure img0025
e / ou a distância L3 (Minkowski)
Figure img0026
[00111] É apreciado que podem ser utilizados outros valores de p.
[00112] O fragmento 11 será então classificado na classe 202 da maioria dos k vizinhos mais próximos. A escolha de k pode depender das imagens, uma vez que um grande valor de k pode reduzir o ruído, mas também pode tornar os limites de decisão menos distintivos, k é um número inteiro ímpar. Um k ótimo pode ser estimado por validação cruzada, e k pode ser preferencialmente igual a 5.
[00113] No exemplo ilustrado pelas Figuras 11A, 11B e 11C, pode assim ser determinado se o vetor V do fragmento 11 da Figura 11C, a ser classificado, tem, entre os seus 5 vizinhos mais próximos (utilizando por exemplo L3): Mais vizinhos na classe 1 (cigarros), caso em que o fragmento 11 é classificado como cigarros, ou mais vizinhos na classe 2 (não cigarros), caso em que o fragmento 11 é classificado como não cigarros.
[00114] Em alguns exemplos, um classificador pode usar uma inferência bayesiana. No exemplo ilustrado nas Figuras 15A, 15B e 15C, para cada fragmento 11 a ser classificado, a correlação com cada padrão M do banco de filtros é determinada e a melhor resposta Br é selecionada. Se a melhor resposta selecionada Br ultrapassar um limiar T, então será classificada em uma classe correspondente 202, por exemplo, como cigarros, isto é, classe 1. Se a melhor resposta selecionada Br não ultrapassar o limiar T, será classificada como não cigarros, ou seja, classe 2.
[00115] O classificador usando inferência bayesiana pode ser baseado no princípio dos classificadores usando margens, como ilustrado na Figura 15C. Por outras palavras, a distância da melhor resposta selecionada Br ao limiar T determina um valor de confiança Vc da classificação, isto é, quanto mais longe a melhor resposta selecionada for a partir do limiar T, menos o classificador está seguro da sua decisão.
[00116] Em alguns exemplos, os limiares T podem ser determinados por inferência bayesiana para cada padrão M como 30 explicado abaixo.
[00117] Seja Mi o iésimo padrão, e paik o k-ésimo fragmento de todos os fragmentos 16 do conjunto de aprendizagem, para o qual Mi obteve as melhores respostas Brik.
[00118] O limiar de decisão Ti é aquele que minimiza a taxa de classificação errada.
Figure img0027
OU
Figure img0028
onde G1 e G2 correspondem a todos os fragmentos 16 cigarros e não cigarros, respectivamente.
[00119] A Figura 15A ilustra um fragmento 11 a ser classificado e seu perfil P. Como já foi referido, a Figura 15B ilustra um exemplo de um banco obtido de filtros f, os padrões Mi extraídos por agrupamento, e os limiares de decisão Ti. A Figura 15C ilustra a classificação do fragmento 11 e a determinação do valor de confiança VC.
[00120] A classificação dos fragmentos 11 como realizado em S21 e S22 é realizada localmente, isto é, que qualquer fragmento selecionado 11 é classificado utilizando apenas o seu próprio descritor de textura. Por outras palavras, no fim da classificação S22 podem existir fragmentos isolados 11 falsamente detectados como cigarros (por vezes referidos como "falsos positivos" 18, como ilustrado no exemplo das Figuras 16A e 16B), mas também fragmentos de "cigarros" não reconhecidos como tal em grandes zonas de cigarros.
[00121] No exemplo ilustrado na Figura 6, a classificação pode assim compreender ainda a classificação, em S23, de uma ou mais zonas 13 de fragmentos 11, cada zona 13 compreendendo uma pluralidade de fragmentos selecionados 11 utilizando um algoritmo de uniformização. A uniformização pode levar em conta as zonas 13 dos fragmentos 11 para determinar a sua classe.
[00122] Em alguns exemplos, o algoritmo de uniformização pode ser pelo menos um dos seguintes: Um fechamento morfológico binário, uma segmentação, e / ou uma regularização.
[00123] Em um fechamento morfológico binário, os elementos que estão conectados a fragmentos classificados, por exemplo, fragmentos de cigarros, e abaixo de um certo tamanho podem ser classificados na mesma classe conectada.
[00124] Em um processo de segmentação, a imagem é primeiro segmentada em zonas 13, e cada zona 13 é classificada com base em uma relação ra, tal que ra = (número de fragmentos de "cigarro" / Número de fragmentos "não cigarros") na zona 13.
[00125] Um tipo de processo de regularização pode basear-se na suposição que um fragmento 11 rodeado por fragmentos de "cigarros" é muito provável que seja também um fragmento de "cigarros".
[00126] Em alguns exemplos, a regularização pode basear-se em, pelo menos, um dos seguintes: Os campos de Markov, e / ou os campos de Gibbs.
[00127] Em alguns exemplos, a imagem 10 das Figuras 16A e 16B contendo os fragmentos classificados 11 pode ser modificada em uma imagem intermediária modificada, de modo que a imagem intermediária modificada pode mostrar um valor de confiança (como uma distância para o vizinho mais próximo no caso de k-NN, ou uma distância para o hiperplano SP no caso do SVM), indicando quão certo o classificador está sobre sua classificação. Em alguns exemplos, os valores de confiança podem ser probabilidades de que um fragmento 11 seja, por exemplo, cigarros ou não cigarros.
[00128] Uma vez que a imagem inicial 10 foi modificada em um espaço probabilístico na imagem intermediária modificada, os campos de Markov podem ser aplicados para medir uma probabilidade de uma imagem de resultado final global 104, como ilustrado na Figura 17A, por exemplo, utilizando uma probabilidade local de cada fragmento 11, usando apenas as informações da vizinhança de cada fragmento. Deixe X ser um campo de Markov, I a imagem de resultado final 104 ilustrada na Figura 17A, D1 O domínio de I, pa um fragmento 11 da imagem intermediária modificada, e N(pa) a vizinhança do fragmento pa.
[00129] A probabilidade de I será assim:
Figure img0029
[00130] Isso mostra que é improvável que um fragmento de “cigarros” esteja no meio de fragmentos de "não cigarros" e vice-versa.
[00131] Conforme ilustrado no exemplo da Figura 17A, a imagem de resultado final 104 pode ser a imagem mais provável 104.
[00132] Alternativamente ou adicionalmente, as imagens 10 e / ou 104 podem ser processadas utilizando campos de Gibbs. Alternativamente ou adicionalmente, uma vez que a imagem inicial 10 foi modificada em um espaço probabilístico na imagem modificada intermediária, campos de Gibbs podem ser aplicados para medir uma probabilidade de uma imagem de resultado final global 104, como ilustrado na Figura 17A. Em alguns exemplos, os campos de Gibbs podem ter um custo computacional menor comparado aos campos de Markov. Um tipo de processo de regularização pode minimizar uma função de Energia. Uma função de Energia U de Gibbs pode ser tal que:
Figure img0030
[00133] Maximizar a probabilidade de uma imagem pode equivaler a minimizar a energia global U. Pode haver vários métodos para minimizar a energia global.
[00134] Em alguns exemplos minimizar a energia global pode ser realizado usando um modelo de Ising. Deixe
Figure img0031
a imagem binária B gerada a partir da classificação, como ilustrado na Figura 17B, e
Figure img0032
a imagem I (referida como imagem 104 na Figura 17A) de probabilidade indicando a confiança na classificação do fragmento 11 (referido como "pa"). Considerando-se a 4- conexidade como uma vizinhança, existem apenas potenciais de primeira ordem (isto é, o fragmento 11 "pa" em si) e potenciais de segunda ordem (ou seja o fragmento 11 "pa" e seu vizinho N(pa)). Os potenciais Usão definidos da seguinte forma:
Figure img0033
e a energia global para minimizar é
Figure img0034
onde α é um parâmetro de anexação de dados; β é um parâmetro de acoplamento entre fragmentos vizinhos; e δ é um campo magnético externo.
[00135] Quando β é positivo, as configurações mais prováveis (isto é, com as energias mais baixas) são aquelas para as quais os fragmentos vizinhos são da mesma classe 202. O valor absoluto de β determina a força de regularização do modelo.
[00136] α mostra que a imagem de resultado 105 não deve ser fundamentalmente diferente da imagem 104 antes da regularização. Assim, α pode ser usado para inverter as classes dos fragmentos 11 apenas quando o classificador é o menos certo de sua classificação.
[00137] δ permite promover, a priori, uma classe ou outra, se é preferível estender as zonas 13 "cigarros" ou as zonas "não cigarros" 13.
[00138] Em alguns exemplos a minimização da energia global pode ser realizada usando uma função de Energia.
[00139] Em alguns exemplos, pode ser utilizado um "recozimento" simulado, por exemplo para um campo de Gibbs.
[00140] Em alguns exemplos, uma distribuição de Gibbs pode ser introduzida com uma temperatura TO, tal que:
Figure img0035
[00141] O algoritmo pode construir uma sequência de imagens graças a um amostrador (como o "amostrador de Metropolis") que pode convergir para a distribuição PTO. Uma subsequente diminuição da temperatura TO no algoritmo pode assegurar que a última imagem gerada pelo amostrador possa ser um mínimo global da imagem.
[00142] Alternativamente ou adicionalmente, outros algoritmos, tais como modos condicionados iterados, podem também ser utilizados durante a regularização.
[00143] A ação pode ser desencadeada utilizando a imagem de resultado 105. A regularização pode permitir cancelar falsos positivos e / ou falsos negativos 18 na imagem final como ilustrado na Figura 18.
[00144] A regularização pode também permitir a identificação e / ou a detecção de itens e / ou composições, mesmo quando pelo menos uma parte da carga é sobreposta com uma tela bloqueando a transmissão da radiação de inspeção.
Variações e modificações
[00145] Outras variações e modificações do sistema ou do analisador serão evidentes para os versados na técnica no contexto da presente descrição, e várias características descritas acima podem ter vantagens com ou sem outras características descritas acima.
[00146] Por exemplo, o analisador 5 pode, pelo menos em parte, formar uma parte do sistema de inspeção 1.
[00147] Entende-se que a fonte de radiação de inspeção pode compreender fontes de outra radiação, tais como raios gama ou nêutrons. A fonte de radiação de inspeção também pode compreender fontes que não são adaptadas para serem ativadas por uma fonte de alimentação, tal como fontes radioativas, tal como utilizando Co60 ou Cs137.
[00148] Como uma possibilidade, é proporcionado um programa de computador, produto de programa de computador ou meio legível por computador, compreendendo instruções de programa de computador para fazer um computador programável executar qualquer um ou mais dos métodos aqui descritos. Em implementações de exemplo, pelo menos algumas porções das atividades relacionadas com o analisador 5 e / ou as redes de comunicações 6 e / ou 7 aqui podem ser implementadas em software. É apreciado que os componentes de software da presente descrição podem, se desejado, ser implementados na forma de ROM (memória apenas de leitura). Os componentes de software podem, de um modo geral, ser implementados em hardware, se desejado, utilizando técnicas convencionais. Em alguns exemplos, os componentes do analisador 5 e / ou as redes de comunicações 6 e / ou 7 podem utilizar aplicações e hardware especializados.
[00149] Como será evidente para os versados na técnica, o servidor 8 não deve ser entendido como uma entidade única, mas refere-se a um dispositivo físico e / ou virtual compreendendo pelo menos um processador e uma memória, a memória pode ser compreendida em um ou mais servidores que podem ser localizados em um único local ou podem ser distantes uns dos outros para formar uma rede distribuída (como "fazendas de servidores", por exemplo, usando tecnologia com fio ou sem fio).
[00150] Em alguns exemplos, um ou mais elementos de memória (por exemplo, o banco de dados 200 e / ou a memória do processador) podem armazenar dados utilizados para as operações aqui descritas. Isto inclui o elemento de memória sendo capaz de armazenar software, lógica, código ou instruções de processador que são executados para executar as atividades descritas na divulgação.
[00151] Um processador pode executar qualquer tipo de instruções associadas com os dados para conseguir as operações aqui detalhadas na divulgação. Em um exemplo, o processador pode transformar um elemento ou um item (por exemplo, dados) a partir de um estado ou coisa para outro estado ou coisa. Em um outro exemplo, as atividades aqui descritas podem ser implementadas com lógica fixa ou lógica programável (por exemplo, instruções de software / de computador executadas por um processador) e os elementos aqui identificados poderiam ser algum tipo de um processador programável, lógica digital programável (por exemplo, um conjunto de porta de campo programável (FGPA), uma memória somente de leitura programável apagável (EPROM), uma memória somente de leitura programável apagável eletricamente (EEPROM)), um ASIC que inclui lógica digital, software, código, instruções eletrônicas, memória flash, discos ópticos, CD-ROMs, DVD ROMs, placas magnéticas ou ópticas, outros tipos de meios legíveis por máquina adequados para armazenar instruções eletrônicas, ou qualquer combinação adequada dos mesmos.
[00152] A rede de comunicações 6 e a rede de comunicações 7 podem formar apenas uma rede.
[00153] Os dados recebidos pelo analisador 5 podem ser recebidos tipicamente através de uma gama de possíveis redes de comunicações 6 e / ou 7, pelo menos, tais como: uma rede de comunicações por satélite; uma rede de comunicações baseada em cabo; uma rede de comunicações baseada em telefonia; uma rede de comunicações baseada em telefonia móvel; uma rede de comunicações de Protocolo de Internet (IP); e / ou de uma rede de comunicações baseada em computador.
[00154] Em alguns exemplos, as redes de comunicações 6 e / ou 7 e / ou o analisador 5 podem compreender uma ou mais redes. As redes podem ser provisionadas em qualquer forma, incluindo, mas não se limitando a, redes de área local (LANs), redes de área local sem fio (WLANs), redes de área local virtuais (VLANs), redes de área metropolitana (MANs), redes de longa distância (WANs), redes privadas virtuais (VPNs), intranet, extranet, qualquer outra arquitetura ou sistema apropriado, ou qualquer combinação destes que facilita a comunicação em uma rede.
[00155] As modalidades acima devem ser entendidas como exemplos ilustrativos, e estão previstas outras modalidades. É para ser entendido que qualquer característica descrita em relação a qualquer uma modalidade pode ser usada sozinha, ou em combinação com outras características descritas, e pode também ser usada em combinação com uma ou mais características de qualquer outra das modalidades, ou qualquer combinação de qualquer outra das modalidades. Além disso, equivalentes e modificações que não estejam descritos acima podem também ser empregues sem afastamento do âmbito da invenção, que é definido nas reivindicações anexas.

Claims (10)

1. Método para inspecionar uma carga (101) em um contêiner (100) caracterizado por compreender: classificar (S2) um ou mais fragmentos (11) de uma imagem de inspeção digitalizada (10), a imagem de inspeção digitalizada (10) sendo gerada por um sistema de inspeção (1) configurado para inspecionar o contêiner (100) por transmissão de radiação de inspeção (3) a partir de uma fonte de radiação de inspeção (31) para um detector de radiação de inspeção (32) através do contêiner (100), em que a classificação (S2) compreende: extrair (S21) um ou mais descritores de textura (V, P) de um fragmento (11), e classificar (S22) o fragmento (11), por comparar o um ou mais descritores de textura extraídos (V, P) do fragmento (11) ao um ou mais descritores de textura de referência (Vr, Wr, Pr) correspondentes a uma ou mais classes (202) de itens de referência (201), o um ou mais descritores de textura de referência (Vr, Wr, Pr) de cada classe de itens de referência (201) sendo extraídos de uma ou mais imagens de referência (20) de um ou mais itens de referência (201).
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda acionar (S4) uma ação baseada na classificação (S2), em que a ação é escolhida entre o grupo consistindo em: determinar (S41) uma composição de uma parte (103) da carga (101) correspondente ao fragmento (11) da imagem de inspeção (10), exibir (S42) a imagem de inspeção digitalizada (10) com uma ou mais composições determinadas para uma ou mais partes (103) da carga (101), emitir (S43) um alarme, enviar (S44) um ou mais fragmentos classificados (11) para um controlador (4), qualquer combinação dos anteriores.
3. Método, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o um ou mais descritores de textura (V, P, Vr, Wr, Pr) são escolhidos a partir do grupo constituído por: um descritor genérico, um descritor dedicado a uma carga, um descritor dedicado a um item de referência, qualquer combinação dos anteriores, opcionalmente em que o descritor genérico é extraído utilizando um ou mais extratores escolhidos a partir de um grupo consistindo de: uma resposta para um banco de filtros; um método de Haralick implementando uma matriz de co- ocorrência; um filtro de espelho em quadratura, QMF; qualquer combinação das anteriores, opcionalmente em que o descritor genérico compreende uma ou mais características de textura, opcionalmente em que auma ou mais características de textura compreende uma média e um desvio padrão, opcionalmente em que cada fragmento é decomposto em três escalas de decomposição quando o extrator é um ou mais QMF.
4. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que a imagem de inspeção (10) compreende uma pluralidade de pixels (12), pelo menos um valor (Ng) representativo da transmissão da radiação de inspeção (3) através do contêiner (100) sendo associado com cada pixel (12), e em que o descritor dedicado compreende um ou mais descritores escolhidos a partir do grupo consistindo de: um nível de cinza médio do fragmento selecionado (11), uma intensidade de um gradiente vertical no fragmento selecionado (11), um perfil correspondente a uma projeção de valores (Ng) de pixels (12) do fragmento (11) em um eixo, um agrupamento de uma pluralidade de descritores de textura, qualquer combinação dos anteriores.
5. Método, de acordo com qualquer uma das reivindicações 1 a 4, caracterizado pelo fato de que cada fragmento (11) forma um quadrado, com um mesmo número de pixels (12) em cada lado do fragmento (11), opcionalmente em que o número de pixels em cada lado do fragmento (11) é compreendido entre 32 e 128, preferencialmente igual a 64, ou compreendendo classificar (S2) um ou mais fragmentos sucessivos de sobreposição (11), opcionalmente em que a sobreposição entre dois fragmentos sucessivos (11) é compreendida entre 10% e 90%, preferencialmente igual a 50%.
6. Método, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que a classificação (S22) compreende utilizar um ou mais classificadores escolhidos do grupo consistindo em: uma máquina de vetor de suporte, SVM, K-vizinhos mais próximos, k-NN, uma inferência Bayesiana, qualquer combinação dos anteriores, opcionalmente em que a classificadora k-NN utiliza qualquer uma das distâncias L1, L2 ou L3, opcionalmente em que k é um número inteiro ímpar, opcionalmente em que k é igual a 5, ou em que a classificação (S2) compreende ainda classificar (S23) uma ou mais zonas (13) de fragmentos (11) utilizando um algoritmo de uniformização, cada zona (13) compreendendo uma pluralidade de fragmentos selecionados (11), opcionalmente em que o algoritmo de uniformização é escolhido a partir do grupo consistindo em: um fechamento morfológico binário, uma segmentação, uma regularização, qualquer combinação dos anteriores, opcionalmente em que a regularização é baseada no grupo que consiste em: campos de Markov, campos de Gibbs, qualquer combinação dos anteriores.
7. Método, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que compreende ainda, depois da classificação (S2) e antes do acionamento (S4): avaliar (S3) um tamanho de uma parte (103) da carga (101) correspondente a uma pluralidade de fragmentos (11) classificados em uma mesma classe, ou em que a imagem de inspeção (10) compreende uma pluralidade de pixels (12), pelo menos um valor (Ng) representativo da transmissão da radiação de inspeção (3) através do contêiner (100) sendo associado com cada pixel (12), o método compreendendo ainda selecionar somente fragmentos (11) que têm um valor médio Mg tal qual: T1<Mg<T2, onde: Mg é uma média dos valores Ng dos pixels (12) do fragmento (11); T1 é um valor de limiar mínimo para itens de interesse inspecionados pelo sistema de inspeção (1); e T2 é um valor de limiar máximo para itens de interesse inspecionados pelo sistema de inspeção (1).
8. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que o um ou mais descritores de textura de referência (Vr, Wr, Pr) que correspondem a uma ou mais classes de itens de referência (201) são armazenados no banco de dados de referência (200), opcionalmente compreendendo ainda recuperar o um ou mais descritores de textura de referência (Vr, Wr, Pr) da base de dados (200) sobre uma rede de comunicação (7), opcionalmente em que o banco de dados (200) é pelo menos parcialmente localizado em um analisador (5) configurado para executar um método de acordo com qualquer uma das reivindicações 1 a 7, ou em que um tipo de sistema de inspeção (1) é definido por uma energia e uma dose da radiação de inspeção (3), opcionalmente em que a radiação de inspeção (3) compreende raios X, opcionalmente em que a energia é compreendida entre 1 MeV e 15 MeV, e em que a dose é compreendida entre 2mGy e 20 Gy, opcionalmente em que para um tipo de sistema de inspeção (1) a energia é 9 MeV e a dose é 17 Gy, e em que para outro tipo de sistema de inspeção (1) a energia é 4 MeV e a dose é 20 mGy, opcionalmente em que o banco de dados (200) compreende um ou mais descritores de textura de referência (Vr, Wr, Pr) para cada tipo de sistema de inspeção (1).
9. Analisador (5) caracterizado por ser configurado para inspecionar uma carga (101) em um contêiner (100), configurado para: classificar (S2) um ou mais fragmentos (11) de uma imagem de inspeção digitalizada (10), a imagem de inspeção digitalizada (10) sendo gerada por um sistema de inspeção (1) configurado para inspecionar o contêiner (100) através de transmissão de radiação de inspeção (3) de uma fonte de radiação de inspeção (31) para um detector de radiação de inspeção (32) através de um contêiner (100), o analisador sendo configurado para classificar (S2) um ou mais fragmentos (11) através da: extração (S21) de um ou mais descritor de textura (V,P) de um fragmento (11), e classificação (S22) do fragmento (11), através da comparação de um ou mais descritores de textura extraídos (V,P) do fragmento (11) para um ou mais descritores de textura (Vr, Wr, Pr) correspondendo a uma ou mais classes (202) de itens de referência (201), o um ou mais descritores de textura de referência (Vr, Wr, Pr) de cada classe de item de referência (201) sendo extraído a partir de uma ou mais imagens de referência (20) de um ou mais itens de referência (201).
10. Aparelho caracterizado por compreender: um servidor (8); um sistema de inspeção (1) configurado para inspecionar um contêiner (100) por transmissão de radiação de inspeção (3) a partir de uma fonte de radiação de inspeção (31) para um detector de radiação de inspeção (32) através do contêiner (100), um analisador (5), conectado ao servidor (8) e ao sistema de inspeção (1) através de uma ou mais redes de comunicação (6, 7), e configurado para: receber, a partir do sistema de inspeção (1), uma imagem de inspeção digitalizada (10) gerada pelo sistema de inspeção (1), receber, a partir do servidor (8), um ou mais descritores de textura de referência (Vr, Wr, Pr) correspondentes a uma ou mais classes (202) de itens de referência (201), o um ou mais descritores de textura de referência (Vr, Wr, Pr) de cada classe de itens de referência (201) sendo extraídos de uma ou mais imagens de referência (20) de um ou mais itens de referência (201), e classificar (S2) um ou mais fragmentos (11) da imagem de inspeção digitalizada (10), por extrair (S21) um ou mais descritores de textura (V, P) de um fragmento (11), e classificar (S22) o fragmento (11), comparando o um ou mais descritores de textura extraídos (V, P) do fragmento (11) para o um ou mais descritores de textura de referência (Vr, Wr, Pr).
BR112016024190-8A 2014-04-16 2015-03-27 Método para inspecionar uma carga em um contêiner, analisador e aparelho de identificação ou determinação de uma carga com base em textura BR112016024190B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1406887.8 2014-04-16
GB1406887.8A GB2525228B (en) 2014-04-16 2014-04-16 Identification or determination of a load based on texture
PCT/GB2015/050934 WO2015159045A1 (en) 2014-04-16 2015-03-27 Identification or determination of a load based on texture

Publications (2)

Publication Number Publication Date
BR112016024190A2 BR112016024190A2 (pt) 2017-10-10
BR112016024190B1 true BR112016024190B1 (pt) 2022-11-01

Family

ID=50845127

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112016024190-8A BR112016024190B1 (pt) 2014-04-16 2015-03-27 Método para inspecionar uma carga em um contêiner, analisador e aparelho de identificação ou determinação de uma carga com base em textura

Country Status (7)

Country Link
US (1) US10134147B2 (pt)
EP (1) EP3132378A1 (pt)
CN (1) CN106663190B (pt)
BR (1) BR112016024190B1 (pt)
GB (1) GB2525228B (pt)
RU (1) RU2717913C2 (pt)
WO (1) WO2015159045A1 (pt)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3172717A4 (en) * 2014-07-22 2018-01-17 Hewlett-Packard Development Company, L.P. Rapid image registration
US10302807B2 (en) 2016-02-22 2019-05-28 Rapiscan Systems, Inc. Systems and methods for detecting threats and contraband in cargo
GB2556941B (en) * 2016-11-28 2021-10-20 Smiths Heimann Sas Detection of irregularities using registration
US10268924B2 (en) * 2016-12-05 2019-04-23 Sap Se Systems and methods for integrated cargo inspection
CN108572183B (zh) * 2017-03-08 2021-11-30 清华大学 检查设备和分割车辆图像的方法
CN111095296B (zh) * 2017-09-14 2024-07-02 雪佛龙美国公司 使用机器学习对字符串进行分类
US11058143B2 (en) 2017-10-19 2021-07-13 R.J. Reynolds Tobacco Company Smoking-related article inspection systems and associated methods
CN109859125B (zh) * 2019-01-14 2022-10-21 广东工业大学 基于形态学检测与小波变换的图像高光修复方法
CN111476938B (zh) * 2019-01-24 2023-04-28 中科晶源微电子技术(北京)有限公司 用于周期性样式的异常检测
CN111784675A (zh) * 2020-07-01 2020-10-16 云南易见纹语科技有限公司 物品纹理信息处理的方法、装置、存储介质及电子设备
CN113298138B (zh) * 2021-05-21 2024-04-23 西安建筑科技大学 一种雷达辐射源个体识别方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE58902570D1 (de) * 1989-08-09 1992-12-03 Heimann Gmbh Vorrichtung zum durchstrahlen von gegenstaenden mit faecherfoermiger strahlung.
US5319547A (en) * 1990-08-10 1994-06-07 Vivid Technologies, Inc. Device and method for inspection of baggage and other objects
US5600303A (en) * 1993-01-15 1997-02-04 Technology International Incorporated Detection of concealed explosives and contraband
US5838759A (en) * 1996-07-03 1998-11-17 Advanced Research And Applications Corporation Single beam photoneutron probe and X-ray imaging system for contraband detection and identification
RU2204122C2 (ru) * 2001-06-25 2003-05-10 Федеральное государственное унитарное предприятие "Московский радиотехнический институт РАН" Рентгено-телевизионное устройство
US20090174554A1 (en) * 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons
CN101071109B (zh) * 2006-05-08 2010-05-12 清华大学 一种多段直线轨迹成像的货物安全检查系统

Also Published As

Publication number Publication date
GB2525228A (en) 2015-10-21
RU2717913C2 (ru) 2020-03-26
RU2016143754A (ru) 2018-05-16
GB2525228B (en) 2020-05-06
CN106663190B (zh) 2020-06-19
RU2016143754A3 (pt) 2018-11-12
WO2015159045A1 (en) 2015-10-22
EP3132378A1 (en) 2017-02-22
GB201406887D0 (en) 2014-05-28
CN106663190A (zh) 2017-05-10
US20170046852A1 (en) 2017-02-16
US10134147B2 (en) 2018-11-20
BR112016024190A2 (pt) 2017-10-10

Similar Documents

Publication Publication Date Title
BR112016024190B1 (pt) Método para inspecionar uma carga em um contêiner, analisador e aparelho de identificação ou determinação de uma carga com base em textura
Subramanya et al. Fooling network interpretation in image classification
Cireşan et al. Mitosis detection in breast cancer histology images with deep neural networks
WO2015067208A1 (zh) 检查方法和设备
Roncal et al. VESICLE: volumetric evaluation of synaptic interfaces using computer vision at large scale
Nercessian et al. Automatic detection of potential threat objects in X-ray luggage scan images
Kiaee et al. Using GLCM features in Haar wavelet transformed space for moving object classification
Peter et al. Scale-adaptive forest training via an efficient feature sampling scheme
Taghipour et al. Hyperspectral anomaly detection using spectral–spatial features based on the human visual system
Rogers et al. Detection of cargo container loads from X-ray images
Raj et al. Object detection in live streaming video using deep learning approach
US11062440B2 (en) Detection of irregularities using registration
Kathirvel et al. A computer‐aided approach for meningioma brain tumor detection using C ANFIS classifier
Drzewiecki et al. Applicability of multifractal features as global characteristics of WorldView-2 panchromatic satellite images
US20210256296A1 (en) Object identification system and computer-implemented method
Tajik et al. Texture feature selection using GA for classification of human brain MRI scans
Alajlan et al. A cluster ensemble method for robust unsupervised classification of VHR remote sensing images
Lather et al. Image processing: what, how and future
RU2721182C2 (ru) Определение степени однородности в изображениях
Nakrani et al. Lung Nodule Detection from Computed Tomography Images Using Stacked Deep Convolutional Neural Network
Sun et al. Sparse representation with multi-manifold analysis for texture classification from few training images
Kalita et al. Improved Convolutional Neural Networks for Hyperspectral Image Classification
Sara et al. An automated detection model of threat objects for X-Ray baggage inspection based on modified encoder-decoder model
Varma et al. An Highly Robust Image Forgery Detection Using STPPL-HBCNN and Region Detection Using DBSCAN-ACYOLOv2 Technique
Pham Spatial uncertainty modeling of fuzzy information in images for pattern classification

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 27/03/2015, OBSERVADAS AS CONDICOES LEGAIS